Page 42 - 4703
P. 42
ментів в другому проміжному шарі на одиницю більше, ніж у
вихідному шарі. Як правило, в завданнях регресії вимагається
оцінити одне вихідне значення, і, відповідно, другий
проміжний шар містить два елементи.
Можна модифікувати GRNN-мережу так, щоб радіальні
елементи відповідали не окремим навчальним випадкам, а їх
кластерам. Це зменшує розміри мережі і збільшує швидкість
навчання. Центри для таких елементів можна вибирати за до-
помогою будь-якого призначеного для цієї мети алгоритму
(вибірки з вибірки, K -средних або Кохонена), і програма ST
Neural Networks відповідним чином коригує внутрішні ваги.
Достоїнства і недоліки у мереж GRNN в основному такі
ж, як і у мереж PNN - єдина відмінність в тому, що GRNN ви-
користовуються в завданнях регресії, а PNN - в завданнях кла-
сифікації. GRNN- мережа навчається майже миттєво, але може
вийти великою і повільною (хоча тут, на відміну від PNN, не
обов'язково мати по одному радіальному елементу на кожен
навчальний приклад, їх число все одно буде великим). Як і
мережа RBF, мережа GRNN не має здатності екстраполювати
дані.
1.2.5 Лінійна нейронна мережа
Згідно із загальноприйнятим в науці принципом, якщо
складніша модель не дає кращих результатів, чим простіша, то
з них слід вважати за краще другу. В термінах апроксимації
відображень найпростішою моделлю буде лінійна, в якій
підібрана функція визначається гіперплощиною. У завданні
класифікації гіперплощина розміщується так, щоб вона
розділяла собою два класа (лінійна дискримінантна функція);
у завданні регресії гіперплощина повинна проходити через
задані точки. Лінійна модель зазвичай записується за допомо-
гою матриці NхN і вектору зміщення розміру N.
На мові нейронних мереж лінійна модель представляєть-
ся мережею без проміжних шарів, яка у вихідному шарі
містить тільки лінійні елементи (тобто елементи з лінійною
функцією активації). Ваги відповідають елементам матриці, а
пороги - компонентам вектору зміщення. Під час роботи ме-
режа фактично множить вектор входів на матрицю ваг, а потім
до отриманого вектору додає вектор зміщення.
42