Page 169 - 4196
P. 169
обчислює лінійну комбінацію радіальних базисних еле-
ментів (зважену суму гаусових функцій), які подаються
на виходи мережі.
Основний алгоритм навчання RBF – мережі реалі-
зує мішану стратегію навчання, яка складається з двох
кроків. На першому кроці оцінюють позицію центра та
ширини ядра із застосуванням алгоритму кластеризації
(навчання без вчителя). Положення центрів повинне від-
повідати кластерам навчальної множини зразків. На дру-
гому кроці застосовується алгоритм мінімізації середньої
квадратичної похибки (навчання з вчителем) для визна-
чення ваг зв’язків між першим та другим шарами. Міша-
ний алгоритм навчання RBF – мережі збігається значно
швидше, ніж алгоритм оберненого слідування для на-
вчання багатошарових перцептронів. Окрім того, усува-
ються складності, пов’язані із проблемою локальних мі-
німумів, яка заважає навчанню останніх.
4.9.7 Навчання багатошарового перцептрону
Найбільш поширений клас багатошарових мереж
прямого слідування утворюють багатошарові перцептро-
ни (MLP), де кожний елемент використовує порогову або
сигмоїдну функцію. Елементи – нейрони організовані у
пошарову топологію із прямою передачею сигналу. Ме-
режа подібної структури може моделювати функцію до-
вільної складності, причому кількість шарів і елементів в
кожному шарі визначають складність функції.
Для розуміння того, як улаштований та навчається
багатошаровий перцептрон, розглянемо які функції він
здатен моделювати. Нагадаємо, що рівнем активації еле-
мента називається зважена сума його входів із додатком
до неї порогового значення. Далі ця сума перетворюється
за допомогою сигмоїдної (S – подібною) кривою. Ком-
бінація лінійної функції кількох змінних і скалярної сиг-
моїдної функції приводить до характерного профілю «си-
гмоїдного схилу», який отримується на виході елемента
першого шару MLP. На рисунку 4.12 наведена відповідна
поверхня, як функція двох змінних, яку формує нейрон з
двома входами x 1 , x і одним виходом y f s .
2
169