Page 112 - 4703
P. 112

Найбільш важливими показниками тут є Net name - Тип
           мережі,  Training  –  ефективність  на  навчальній  вибірці;  Test
           p…-  ефективність       на  тестовій  множині;  Validation  –
           підтверджена  ефективність.  Ефективність  мережі  в  задачах
           регресії визначається через коефіцієнт кореляції між прогноз-
           ними і цільовими значеннями.
                У розділі Net name - описується топологія нейронної ме-
           режі, тобто клас мереж, до якого вона належить (персептрон,
           мережа RBF і так далі), кількість вхідних і вихідних змінних,
           кількість  прихованих  шарів  і  число  елементів  на  кожному
           прихованому шарі.
                Для навчання алгоритм пошуку мережі розбиває (за умо-
           вчанням) усю множину спостережень на Training - Навчальну,
           Validation  -  Контрольну  і  Test  -  Тестову  множини.  Кожна  з
           цих множин несе свою важливу функцію.
                На навчальній множині Training відбувається безпосере-
           днє навчання мережі, тобто зміна вагових коефіцієнтів кожно-
           го з нейронів пропорційно помилці на виході. Відповідно усі
           спостереження  з  цієї  множини  багаторазово  беруть  участь  в
           процедурі зміни вагових коефіцієнтів навчаної мережі.
                Спостереження  контрольної  множини  Validation  в  про-
           цедурі зміни вагів нейронів не беруть участь. Основна функція
           цих  даних  -  в  постійному  контролі  здатності  мережі  до  уза-
           гальнення даних, на яких вона не навчалася. Така процедура
           називається  крос-перевіркою.  На  кожному  кроці  алгоритму
           навчання  розраховується  помилка  для  усього  набору  спосте-
           режень з контрольної множини і порівнюється з помилкою на
           навчальній  множині.  Природно,  що  ці  помилки  відрізняти-
           муться.  Як  правило,  помилка  на  контрольній  множині  пере-
           вищує  помилку  на  навчальній  множині.  Проте,  важливий  не
           сам факт відмінності, а спостережувана тенденція помилок.
                Дійсно, алгоритм навчання націлений на мінімізацію по-
           милки  на  виході  мережі.  Відповідно,  помилка  на  навчальній
           множині просто зобов'язана в середньому зменшуватися. Але
           ніхто не обіцяє спаду помилки на перевірочній множині. От-
           же, якщо спостерігається картина росту помилки на контроль-
           ній множині, тоді як вона зменшується на навчальній множи-
           ні, то це говорить про те, що мережа "зазубила" усі пред'явлені
           їй спостереження і не здатна до узагальнення. Такий стан на-
           зивається

                                         112
   107   108   109   110   111   112   113   114   115   116   117