Page 15 - 4143
P. 15

(Σ)
                                                Y = XW .                                                ( 2.4)


                     Таким чином, для розширення обчислювальних можливостей
                  багатошарових    в  порівнянні  з  одношаровими    необхідне

                  використовування нелінійних активаційних функцій.
                     Продовжуючи  розмову  про  нелінійність,  необхідно  відзначити,
                  що вона іноді може вводитися і в синаптичні зв'язки. В більшості

                  відомих сьогодні  для знаходження зваженої суми входів нейрона
                  використовують  формулу  (1.1),  проте  в  деяких  практичних
                  застосуваннях  корисно ввести інший запис, наприклад:


                                                            n    2
                                                                       .
                                                     S =      x i  w i                                   (1.9)
                                                             i  1
                  або


                                                         n
                                                   S=      x i  x ((i  ) 1  mod  ) n  w i  .          (1.10)
                                                        i 1
                     Питання  в  тому,  щоб  розробник    чітко  розумів,  для  чого  він  це

                  робить,  якими  цінними  властивостями  він  тим  самим  додатково
                  наділяє нейрон, і яких позбавляє. Введення такого роду нелінійності,
                  взагалі  кажучи,  збільшує  обчислювальну  потужність  мережі,  тобто

                  дозволяє  з  меншого  числа  нейронів  з  "нелінійними"  синапсами
                  сконструювати  ,  виконуючу  роботу  звичної    з  великим  числом
                  стандартних нейронів і складнішою конфігурацією [1].

                     У мереж, розглянутих дотепер, не було зворотних зв'язків, тобто
                  з'єднань, що йдуть від виходів деякого шару до входів цього ж шару
                  або  попередніх  шарів.  Цей  спеціальний  клас  мереж,  званих

                  мережами  без  зворотних  зв'язків  або  мережами  прямого
                  розповсюдження, представляє інтерес і широко використовується.
                     Декілька  слів  необхідно  сказати  про  необхідну  потужність
                  вихідного  шару  мережі,  що  виконує  остаточну  класифікацію

                  простору  станів.  Річ  у  тому,  що  для  розділення  безлічі  вхідних
                  образів, наприклад, по двох класах достатньо всього одного виходу.
                  При  цьому  кожний  логічний  рівень  -  "1"  і  "0"  -  позначатиме

                  окремий клас. На двох виходах можна закодувати вже чотири класи
                  і т.д. Проте результати роботи мережі, організованої таким чином
                  недостатньо  надійні.  Для  підвищення  достовірності  класифікації
                  бажано  ввести  надмірність  шляхом  виділення  кожному  класу

                                                                   15
   10   11   12   13   14   15   16   17   18   19   20