Page 169 - 4196
P. 169

обчислює  лінійну  комбінацію  радіальних  базисних  еле-
           ментів (зважену  суму гаусових  функцій), які  подаються
           на виходи мережі.
                 Основний алгоритм навчання  RBF – мережі реалі-
           зує мішану стратегію навчання, яка складається з двох
           кроків.  На  першому  кроці  оцінюють  позицію  центра  та
           ширини ядра  із застосуванням  алгоритму кластеризації
           (навчання без вчителя). Положення центрів повинне від-
           повідати кластерам навчальної множини зразків. На дру-
           гому кроці застосовується алгоритм мінімізації середньої
           квадратичної похибки (навчання з вчителем) для визна-
           чення ваг зв’язків між першим та другим шарами. Міша-
           ний алгоритм навчання  RBF – мережі збігається значно
           швидше,  ніж  алгоритм  оберненого  слідування  для  на-
           вчання багатошарових перцептронів. Окрім того, усува-
           ються складності, пов’язані із проблемою локальних мі-
           німумів, яка заважає навчанню останніх.

                 4.9.7 Навчання багатошарового перцептрону

                 Найбільш  поширений  клас  багатошарових  мереж
           прямого слідування утворюють багатошарові перцептро-
           ни (MLP), де кожний елемент використовує порогову або
           сигмоїдну  функцію.  Елементи  –  нейрони організовані  у
           пошарову топологію із прямою передачею сигналу. Ме-
           режа подібної структури може моделювати функцію до-
           вільної складності, причому кількість шарів і елементів в
           кожному шарі визначають складність функції.
                 Для розуміння того, як улаштований та навчається
           багатошаровий  перцептрон,  розглянемо  які  функції  він
           здатен моделювати. Нагадаємо, що рівнем активації еле-
           мента називається зважена сума його входів із додатком
           до неї порогового значення. Далі ця сума перетворюється
           за допомогою сигмоїдної (S  – подібною) кривою. Ком-
           бінація лінійної функції кількох змінних і скалярної сиг-
           моїдної функції приводить до характерного профілю «си-
           гмоїдного схилу», який отримується на виході елемента
           першого шару MLP. На рисунку 4.12 наведена відповідна
           поверхня, як функція двох змінних, яку формує нейрон з
           двома входами  x  1 ,  x  і одним виходом  y   f   s .
                                 2
                                       169
   164   165   166   167   168   169   170   171   172   173   174