Page 160 - 4196
P. 160
1
де f - сигмоїд; k - число нейронів в n шарі із вра-
хуванням додаткового нейрону, який задає зсув +1;
n 1 n
y x - i -й вхід j-го нейрону n -го шару.
i ij
За входи мережі приймаємо x 1 y 0 , де e- розмі-
e
e
рність еталону.
2 За формулою (4.93) обчислюємо N для вихід-
ного N -го шару; за формулами (4.94) або (4.95) – попра-
вки ваг W N для N -го шару.
3 Повторюємо обчислення пункту 2 для усіх інших
шарів n N , 1 N 2 ,..., 1, тобто в зворотному порядку.
4 Скоректувати усі ваги НС
n n n
W Wt t 1 W t .
ij ij ij
5 Якщо похибка мережі WE суттєва, перейти до
п.1.
На кроці 1 почергово у випадковому порядку пода-
ються усі навчальні об’єкти. Перед початком навчання
мережі усім вагам надаються невеликі випадкові значен-
ня.
4.9.5 Алгоритми навчання „без вчителя”
Алгоритми навчання нейронних мереж без вчителя
дозволяють виявляти особливості організації структури
даних, виконувати аналіз, категоризацію та стиснення
даних. Процес навчання, як і у випадку навчання з вчите-
лем, полягає у коректування вагових коефіцієнтів на ос-
нові інформації про стан нейронів. За аналогією із відо-
мими принципами самоорганізації нервових клітин по-
будовані алгоритми навчання Хебба.
1 Алгоритми навчання Хебба
Сигнальний метод навчання Хебба полягає у зміні
вагових коефіцієнтів згідно правилу
160