Page 161 - 4196
P. 161

n   1   n
                       W    Wt   t    1     y   y   ,     (4.96)
                         ij      ij           i      j
           де   - коефіцієнт швидкості навчання;  W - ваговий кое-
                                                       ij
                                                      1
           фіцієнт зв’язку між  i -м нейроном  n  -го шару та  j-м
           нейроном  n -го шару;  y n   1   - вихідне значення  i -го ней-
                                    i
           рону  n  -го шару;  y  n   - вихідне значення  j-го нейро-
                       1
                                    j
           ну  n -го шару. При навчанні сигнальним методом підси-
           люються зв’язки між збудженими нейронами.
                 Існує також диференційний алгоритм навчання Хе-
           бба:

                             W ij    t   W ij  t    1 
                                                                 (4.97)
                     n   1  n   1      n     n   1
                    y    yt   t   1  y    yt   t  1 .
                     i         i             j       j
           При навчанні диференційним алгоритмом підсилюються
           зв’язки тих нейронів, виходи котрих змінилися найбільш
           динамічно.
                 Послідовність  навчання  алгоритмами  Хебба  буде
           такою:
                 1 Перед початком навчання усім ваговим коефіціє-
           нтам надаються невеликі випадкові значення.
                 2 На входи мережі подається об’єкт-образ і за алго-
           ритмом прямого поширення знаходяться вихідні значен-
           ня усіх нейронів.
                 3 За формулами (4.96) або (4.97) виконується коре-
           кція усіх вагових коефіцієнтів.
                 4 Перехід до пункту 2.
                 5 Цикл ітерацій завершується, якщо зміни вагових
           коефіцієнтів не суттєві.
                 На другому кроці почергово подаються усі об’єкти
           із вхідного набору даних.

                 2 Алгоритм навчання Кохонена
                 В іншому алгоритмі навчання Кохонена вагові кое-
           фіцієнти коректуються за правилом

                                       161
   156   157   158   159   160   161   162   163   164   165   166