Page 157 - 4196
P. 157
Цей алгоритм збігається до оптимального рішення
при виконанні умов:
1) k 1 k (гармонійний ряд);
T T 2
2) математичні сподівання XXM , XXM ,
T
M X f i X XXM, X f i X , існують.
У випадку двох класів алгоритм навчання має ви-
гляд
W k 1 W k k X Xrk Wk T kXk ,
де W - вектор ваг класу Xr 1k , якщо
;
1
X k і Xr 0k , якщо kX .
1 2
Правило класифікації невідомого об’єкту X буде
наступним:
X 1 , якщо W T X 2 / 1 ,
X 2 , якщо W T X 2 / 1 .
4.9.4 Алгоритм оберненого поширення
Найбільш поширений спосіб навчання нейтронної
мережі – це різні модифікації алгоритму оберненого по-
ширення. Якщо в мережі тільки один шар нейронів, її
навчання здійснюється одним із попередніх алгоритмів,
коли відомі правильні вихідні значення нейронів. В бага-
тошарових мережах оптимальні вихідні значення нейро-
нів проміжних шарів не відомі. Алгоритми навчання в
багатошарових нейронних мережах базуються на проце-
дурі поширення сигналів похибки по напрямку від вихо-
ду мережі до входу, тобто оберненому до звичайного
режиму її роботи.
В алгоритмі оберненого поширення обчислюється
вектор градієнта поверхні похибок, який вказує напрямок
найбільшого зменшення похибки. Послідовні кроки іте-
157