Page 155 - 4196
P. 155

T
             W  i k    1   W i  k    k X  signk  r i    X    Wk   i     kXk

           або в еквівалентній формі

                            k  X   якщо,k  W T       rkXk  X  ,k
                        W
            W i   1k       i  k              i           i       (
                       W  i    k  k X   якщо,k  W i T       rkXk  i X  ,k
                       
                                      4.91)

           де вибір коректуючого коефіцієнта у виді          1  k  задо-
                                                          k
           вольняє умові збіжності ітераційного процесу.
                 Особливістю алгоритму (4.91) є корегування ваг на
           кожному кроці на відміну від алгоритму перцептрону, де
           корегування відбувалось тільки  у випадку неправильної
           класифікації об’єкта-еталона.
                 Рахується, що ітераційна процедура (4.91) збіглася
           до  вільного  від  помилок  рішення,  якщо  усі  еталони  на-
           вчальної вибірки кваліфіковані правильно, тобто

                             i T X   ,1  якщо  X     ,
                           W
                                                      i
                          
                          W  i T X   ,0  якщо  X     .
                          
                                                      i

           На практиці виконання цієї  умови  ускладнюється, якщо
           класи  не  піддаються  точному  роз’єднанню.  Для  завер-
           шення  процедури  навчання  достатньо,  щоби  для  усіх
           еталонів класу    виконувалась умова
                             i
                          d i    dX   j   X ,  j   , i  i   1 ,..., m .
           В цьому випадку є гарантія того, що рішення зійдеться за
           критерієм мінімального абсолютного розходження його з
              f  i  X  до оптимального байесівського класифікатора.
                 При  розділенні  двох  класів  алгоритм  визначення
           ваг приймає вигляд
              W  k    1   W  k    k X  signk  r   X   Wk   T     kXk  ,


                                       155
   150   151   152   153   154   155   156   157   158   159   160