Page 36 - 4703
P. 36
З "груповим" підходом пов'язано і невміння мереж RBF
екстраполювати свої виводи за область відомих даних. При
видаленні від навчальної множини значення функції відгуку
швидко спадає до нуля. Навпаки, мережа MLP видає певніші
рішення при обробці даних, що сильно відхиляються. Гідність
це або недолік - залежить від конкретного завдання, проте в
цілому схильність MLP до некритичного екстраполювання
результату вважається його слабкістю. Екстраполяція на дані,
що лежать далеко від навчальної множини - річ, як правило,
небезпечна і необгрунтована. Мережі RBF чутливіші до "про-
кляття розмірності" і зазнають значні труднощі, коли число
входів велике.
1.2.4 Навчання RBF-мережі
Як вже говорилося, навчання RBF-мережі відбувається у
декілька етапів. Спочатку визначаються центри і відхилення
для радіальних елементів; після цього оптимізуються парамет-
ри лінійного вихідного шару.
Розташування центрів повинне відповідати кластерам,
реально присутнім в початкових даних. Розглянемо два най-
частіше використовуваних методи.
Вибірка з вибірки. В якості центрів радіальних елементів
беруться декілька випадково вибраних точок навчальної мно-
жини. В силу випадковості вибору вони "представляють"
розподіл навчальних даних в статистичному сенсі. Проте,
якщо число радіальних елементів невелике, таке представлен-
ня може бути незадовільним.
Алгоритм K -средних. Цей алгоритм прагне вибрати оп-
тимальну множину точок, які є центроїдами кластерів в нав-
чальних даних. При K радіальних елементах їх центри розта-
шовуються так, щоб:
Кожна навчальна точка "відносилася" до одного центру
кластера і знаходилась до нього ближче, ніж до будь-якого
іншого центру;
Кожен центр кластера був центроїдом множини навча-
льних точок, що відносяться до цього кластера.
Після того, як визначено розташування центрів, треба
знайти відхилення. Величина відхилення (її також називають
згладжуючим чинником) визначає, наскільки "гострою" буде
36