Page 55 - 4524
P. 55
Вважається, що в мозку саме каскадні з'єднання модулів різ-
ної спеціалізації дозволяють виконувати необхідні обчислен-
ня.
У процесі навчання мережі зустрічного поширення вхід-
ні вектори асоціюються з відповідними вихідними векторами
(двійковими або аналоговими). Після навчання мережа фор-
мує вихідні сигнали, що відповідають вхідним сигналам. Уза-
гальнююча здатність мережі дає можливість одержувати пра-
вильний вихід, якщо вхідний вектор неповний чи спотворе-
ний.
Навчання мережі
Карта Кохонена класифікує вхідні вектори в групи схо-
жих. В результаті самонавчання прошарок здобуває здатність
розділяти несхожі вхідні вектори. Який саме нейрон буде ак-
тивуватися при пред'явленні конкретного вхідного сигналу,
заздалегідь важко передбачити.
При навчанні прошарку Кохонена на вхід подається вхі-
дний вектор і обчислюються його скалярні добутки з вектора-
ми ваг всіх нейронів.
Скалярний добуток є мірою подібності між вхідним век-
тором і вектором ваг. Нейрон з максимальним значенням ска-
лярного добутку з'являється "переможцем" і його ваги підси-
люються (ваговий вектор наближається до вхідного).
w н=w c+r(x-w c), (5.14)
де w н - нове значення ваги, що з'єднує вхідний компо-
нент x з нейроном-переможцем, w с - попереднє значення цієї
ваги, r - коефіцієнт швидкості навчання, що спочатку звичай-
но дорівнює 0.7 і може поступово зменшуватися в процесі на-
вчання. Це дозволяє робити великі початкові кроки для швид-
кого грубого навчання і менші кроки при підході до остаточ-
ної величини.
Кожна вага, зв'язана з нейроном-переможцем Кохонена,
змінюється пропорційно різниці між його величиною і вели-
чиною входу, до якого він приєднаний. Напрямок зміни міні-
мізує різницю між вагою і відповідним елементом вхідного
прошарку.
Навчальна множина може містити багато подібних між
собою вхідних векторів, і мережа повинна бути навченою ак-
тивувати один нейрон Кохонена для кожного з них. Ваги цьо-
54