Page 157 - 4196
P. 157

Цей алгоритм збігається  до оптимального рішення
           при виконанні умов:

                 1)  k    1  k  (гармонійний ряд);
                                                     T          T  2 
                 2) математичні сподівання  XXM      ,   XXM       ,
                                                                    
                                 T
            M X   f  i  X  XXM,  X   f  i  X , існують.

                 У  випадку  двох  класів  алгоритм навчання має  ви-
           гляд
                W  k    1   W   k    k X    Xrk    Wk   T     kXk  ,
           де  W   -  вектор  ваг  класу     Xr         1k  ,  якщо
                                                 ;
                                                1
            X  k     і  Xr    0k  , якщо   kX     .
                     1                               2
                 Правило  класифікації  невідомого  об’єкту  X   буде
           наступним:
                           X    1 ,  якщо     W  T X    2 / 1  ,
                            X    2 ,  якщо    W T X    2 / 1  .


                 4.9.4 Алгоритм оберненого поширення

                 Найбільш  поширений  спосіб  навчання  нейтронної
           мережі – це різні модифікації алгоритму оберненого по-
           ширення.  Якщо  в  мережі  тільки  один  шар  нейронів,  її
           навчання  здійснюється  одним  із  попередніх  алгоритмів,
           коли відомі правильні вихідні значення нейронів. В бага-
           тошарових мережах оптимальні вихідні значення нейро-
           нів  проміжних  шарів  не  відомі.  Алгоритми  навчання  в
           багатошарових нейронних мережах базуються на проце-
           дурі поширення сигналів похибки по напрямку від вихо-
           ду  мережі  до  входу,  тобто  оберненому  до  звичайного
           режиму її роботи.
                 В  алгоритмі  оберненого  поширення  обчислюється
           вектор градієнта поверхні похибок, який вказує напрямок
           найбільшого зменшення похибки. Послідовні  кроки  іте-
                                       157
   152   153   154   155   156   157   158   159   160   161   162