Page 37 - 4524
P. 37

  N             
                                              y( t)   f    w i  t) (  x ( t)   b ,         (5.1)
                                                                      
                                                               i
                                                      i 1           
                                  4. Налаштування значень ваг:
                                     w i(t+1)=w i (t)+r[d(t)-y(t)]x i (t), i=1, ..., N,        (5.2)
                                                     вихідний,1  клас  А
                                             d( t)                    ,               (5.3)
                                                      вихідний,1  клас  В
                            де  w і(t)  -  вага  зв'язку  від  і-го  елемента  вхідного  сигналу  до
                            нейрона в момент часу t,  r  - швидкість навчання (менше 1),
                            d(t) - бажаний вихідний сигнал.
                                  Якщо  мережа  приймає  правильне  рішення,  синаптичні
                            ваги не модифікуються.
                                  5. Перехід до кроку 2.
                                  Тип вхідних сигналів: бінарні чи аналогові (дійсні).
                                  Розмірності  входу  і  виходу  обмежені  при  програмній
                            реалізації  тільки  можливостями  обчислювальної  системи,  на
                            якій моделюється нейронна мережа, при апаратній реалізації -
                            технологічними можливостями.
                                  Області застосування: розпізнавання образів, класифі-
                            кація.
                            \      Недоліки.  Примітивні  поділяючі  поверхні  (гіперпло-
                            щини) дають можливість вирішувати лише найпростіші задачі
                            розпізнавання.
                                  Переваги. Програмні та апаратні реалізації моделі дуже
                            прості. Простий і швидкий алгоритм навчання.
                                  Модифікації.  Багатошарові  перцептрони  (рис.  5.2)  да-
                            ють можливість будувати більш складні поділяючі поверхні і
                            тому більш поширені.












                                    Рисунок 5.2 - Перцептрон із багатьма виходами


                                                           36
   32   33   34   35   36   37   38   39   40   41   42