Page 25 - 4703
P. 25

 Якщо  має  місце  перенавчання  (контрольна  помилка
           стала  рости),  спробувати  видалити  декілька  прихованих  еле-
           ментів (а можливо і шарів).
                Багатократне  повторення  евристичних  експериментів  у
           кращому  разі  досить  стомливо,  і  тому  в  пакет  ST  Neural
           Networks  включений  спеціальний  алгоритм  автоматичного
           пошуку, який виконає ці дії за Вас. Автоматичний конструк-
           тор мережі - Automatic Network Designer проведе експеримен-
           ти з різним числом прихованих елементів, для кожної пробної
           архітектури  мережі  виконає  декілька  прогонів  навчання,
           відбираючи при цьому найкращу мережу за показником кон-
           трольної помилки з поправкою на розмір  мережі.  У  Автома-
           тичному  конструкторі  мережі  реалізовані  складні  алгоритми
           пошуку,  у  тому  числі  метод  "штучного  відпалу"  (simulated
           annealing, Kirkpatrick та ін., 1983), за допомогою яких можна
           перепробувати сотні різних мереж, виділяючи з них особливо
           перспективні або швидко знаходити "грубе і просте" рішення.

                Відбір даних
                На  усіх  попередніх  етапах  істотно  використовувалося
           одне  припущення.  А  саме,  навчальне,  контрольне  і  тестове
           множини мають бути репрезентативними (представницькими)
           з  точки  зору  суті  завдання  (більше  того,  ці  множини  мають
           бути репрезентативними кожне окремо). Відомий вислів про-
           грамістів "garbage in, garbage out" ("сміття на вході - сміття на
           виході") ніде не справедливо в такому ступені, як при нейро-
           мережевому  моделюванні.  Якщо  навчальні  дані  не  репрезен-
           тативні,  то  модель,  як  мінімум,  буде  не  дуже  хорошою,  а  у
           гіршому разі - даремною. Має сенс перерахувати ряд причин,
           які погіршують якість повчальної великої кількості :
                Майбутнє  несхоже  на  минуле.  Зазвичай  в  якості  нав-
           чальних  беруться  історичні  (апріорні)  дані.  Якщо  обставини
           змінилися, то закономірності, що мали місце у минулому, мо-
           жуть більше не діяти.
                Слід врахувати усі можливості. Нейронна мережа може
           навчатися тільки на тих даних, які вона має в розпорядженні.
           Припустимо, що в даних по свердловині є пропущені інтерва-
           ли.  Тоді  навряд  чи  можна  чекати  від  мережі  правильного
           рішення в абсолютно новій для неї ситуації.


                                          25
   20   21   22   23   24   25   26   27   28   29   30