Page 31 - 4143
P. 31

розповсюдження,  обумовлено  тим,  що  настроюванні  значення

                  синапсів фактично не обмежені.

                     На другому кроці циклу поперемінно пред'являються всі образи з
                  вхідного набору.
                     Слід зазначити, що вид відгуків на кожний клас вхідних образів не

                  відомий  наперед  і  буде  довільним  поєднанням  станів  нейронів
                  вихідного  шару,  обумовленим  випадковим  розподілом  вагових
                  коефіцієнтів  на  стадії  ініціалізації.  Разом  з  тим,  мережа  здатна
                  узагальнювати  схожі  образи,  відносячи  їх  до  одного  класу.

                  Тестування навченої мережі дозволяє визначити топологію класів у
                  вихідному  шарі.  Для  приведення  відгуків  навченої  мережі  до
                  зручного  уявлення  мережа  може  бути  доповнена  ще  одним  шаром,

                  який в процесі навчання за алгоритмом одношарового перцептрона
                  [32]  дозволяє  відображати  вихідні  реакції  мережі  в  необхідному
                  вигляді.
                     Інший  алгоритм  навчання  без  вчителя  -  алгоритм  Кохонена  -

                  передбачає  настроювання  синапсів  на  підставі  їх  значень  після
                  попередньої ітерації.

                                       w (t)= w (t - 1)+α [ y       i (n-1) (t) – w (t - 1)] .          (1.41)
                                                    ij
                                           ij
                                                                                ij
                     З наведеної формули видно, що навчання зводиться до мінімізації
                  різниці між вхідними сигналами нейрона, що поступають з виходів
                                                              (n-1)
                  нейронів  попереднього  шару  y            i    ,  і  ваговими  коефіцієнтами  його
                  синапсів.
                     Повний алгоритм навчання має приблизно таку ж структуру, як в

                  методах  Хебба,  але  на  третьому  кроці  зі  всього  шару  вибирається
                  нейрон,  значення  синапсів  якого  максимально  схожі  на  вхідний
                  образ, і настроювання ваг по формулі (3.18) проводиться тільки для

                  нього.  Ця,  так  звана,  акредитація  може  супроводжуватися
                  загальмовуванням всієї решти нейронів шару і введенням вибраного
                  нейрона  в  насичення.  Вибір  такого  нейрона  може  здійснюватися,
                  наприклад,  розрахунком  скалярного  добутку  вектора  вагових

                  коефіцієнтів з вектором вхідних значень. Максимальний добуток  дає
                  той, нейрон що виграв.
                    Інший варіант - розрахунок відстані між цими векторами в р-

                  мірному просторі
                                                         p 1   (n  )1

                                                D         (y i     -     w ij  2   )   ,              (1.42)
                                                         i 0
                                                                   31
   26   27   28   29   30   31   32   33   34   35   36