Page 23 - 4143
P. 23
N
d j (x i w ji ) 2 (1.23)
i 1
для j -го центру кластера W мінімальне, тобто, якщо d d для
j
j
k
кожного
k ≠ j . Якщо вузли квантувача є лінійними, а вага i -го входу j -го
вузла рівна w для кожного i і j, то очевидно, що при відповідних
ij
значеннях порогів кожний i-й вихід мережі з точністю до
неістотних постійних буде рівний евклідової відстані d між
j
пред'явленим вхідним вектором X і j -м центром кластера.
При навчанні пред'являються вхідні вектори без вказівки
бажаних виходів і коректується вага згідно алгоритму,
запропонованому Т. Кохоненом (буде розглянутий далі).
Карти Кохонена, що самоорганізовуються, можуть бути
використані для проектування багатовимірних даних,
апроксимації густини і кластеризації. Ці мережі успішно
застосовуються для розпізнавання мови, обробки зображень, в
робототехніці і в задачах управління.
Навчальний елемент 1.10 Навчання НМ, навчання з вчителем
Коли йде розмова про використовування і нейромережевих
алгоритмів, майже завжди маються на увазі певні процедури їх
навчання. є адаптивною системою, життєвий цикл якої складається
з двох незалежних фаз – навчання і роботи мережі. Навчання
вважається закінченим, коли мережа правильно виконує
перетворення на тестових прикладах і подальше навчання не
викликає значної зміни вагових коефіцієнтів. Далі мережа виконує
перетворення раніше невідомих їй даних на основі сформованої нею
у процесі навчання нелінійної моделі процесу. Мережа успішно
працює до тих пір, поки істотно не зміниться реальна модель
явища, що відображається (наприклад, у разі виникнення ситуації,
інформація про яку ніколи не пред'являлася мережі при навчанні).
Після цього мережа може додатково навчатися з урахуванням нової
інформації, причому при додатковому навчанні попередня
інформація не втрачається, а узагальнюється з тією, що знов
поступила. При "пошкодженні" частини вагових коефіцієнтів її
властивості можуть бути повністю відновлені в процесі додаткового
навчання.
23