Page 42 - 4703
P. 42

ментів в другому проміжному шарі на одиницю більше, ніж у
           вихідному шарі. Як правило, в завданнях регресії вимагається
           оцінити  одне  вихідне  значення,  і,  відповідно,  другий
           проміжний шар містить два елементи.
                Можна модифікувати GRNN-мережу так, щоб радіальні
           елементи відповідали не окремим навчальним випадкам, а їх
           кластерам. Це зменшує розміри мережі і збільшує швидкість
           навчання. Центри для таких елементів можна вибирати за до-
           помогою  будь-якого  призначеного  для  цієї  мети  алгоритму
           (вибірки  з  вибірки,  K  -средних  або  Кохонена),  і  програма  ST
           Neural Networks відповідним чином коригує внутрішні ваги.
                Достоїнства і недоліки у мереж GRNN в основному такі
           ж, як і у мереж PNN - єдина відмінність в тому, що GRNN ви-
           користовуються в завданнях регресії, а PNN - в завданнях кла-
           сифікації. GRNN- мережа навчається майже миттєво, але може
           вийти великою і повільною (хоча тут, на відміну від PNN, не
           обов'язково  мати  по  одному  радіальному  елементу  на  кожен
           навчальний  приклад,  їх  число  все  одно  буде  великим).  Як  і
           мережа RBF, мережа GRNN не має здатності екстраполювати
           дані.

                1.2.5 Лінійна нейронна мережа

                Згідно  із  загальноприйнятим  в  науці  принципом,  якщо
           складніша модель не дає кращих результатів, чим простіша, то
           з  них  слід  вважати  за краще  другу.  В  термінах  апроксимації
           відображень  найпростішою  моделлю  буде  лінійна,  в  якій
           підібрана  функція  визначається  гіперплощиною.  У  завданні
           класифікації  гіперплощина  розміщується  так,  щоб  вона
           розділяла собою два класа (лінійна дискримінантна функція);
           у  завданні  регресії  гіперплощина  повинна  проходити  через
           задані точки. Лінійна модель зазвичай записується за допомо-
           гою матриці NхN і вектору зміщення розміру N.
                На мові нейронних мереж лінійна модель представляєть-
           ся  мережею  без  проміжних  шарів,  яка  у  вихідному  шарі
           містить  тільки  лінійні  елементи  (тобто  елементи  з  лінійною
           функцією активації). Ваги відповідають елементам матриці, а
           пороги - компонентам вектору зміщення. Під час роботи ме-
           режа фактично множить вектор входів на матрицю ваг, а потім
           до отриманого вектору додає вектор зміщення.

                                          42
   37   38   39   40   41   42   43   44   45   46   47