Page 161 - 4196
P. 161
n 1 n
W Wt t 1 y y , (4.96)
ij ij i j
де - коефіцієнт швидкості навчання; W - ваговий кое-
ij
1
фіцієнт зв’язку між i -м нейроном n -го шару та j-м
нейроном n -го шару; y n 1 - вихідне значення i -го ней-
i
рону n -го шару; y n - вихідне значення j-го нейро-
1
j
ну n -го шару. При навчанні сигнальним методом підси-
люються зв’язки між збудженими нейронами.
Існує також диференційний алгоритм навчання Хе-
бба:
W ij t W ij t 1
(4.97)
n 1 n 1 n n 1
y yt t 1 y yt t 1 .
i i j j
При навчанні диференційним алгоритмом підсилюються
зв’язки тих нейронів, виходи котрих змінилися найбільш
динамічно.
Послідовність навчання алгоритмами Хебба буде
такою:
1 Перед початком навчання усім ваговим коефіціє-
нтам надаються невеликі випадкові значення.
2 На входи мережі подається об’єкт-образ і за алго-
ритмом прямого поширення знаходяться вихідні значен-
ня усіх нейронів.
3 За формулами (4.96) або (4.97) виконується коре-
кція усіх вагових коефіцієнтів.
4 Перехід до пункту 2.
5 Цикл ітерацій завершується, якщо зміни вагових
коефіцієнтів не суттєві.
На другому кроці почергово подаються усі об’єкти
із вхідного набору даних.
2 Алгоритм навчання Кохонена
В іншому алгоритмі навчання Кохонена вагові кое-
фіцієнти коректуються за правилом
161