Page 141 - 4196
P. 141

Одним із важливих параметрів навчання є параметр
              швидкості навчання  0       1 . Якщо      0 , то мере-
           жа може навчатися нескінченно довго. Деякий тестовий
           приклад  в  процесі  навчання  може  активізувати  інший
           вихідний нейрон. Як наслідок виникає питання про ста-
           лість  нейтронної  мережі,  коли  еталонні  об’єкти  не  змі-
           нюють своєї належності до певного класу після кінцевої
           кількості ітерацій навчального процесу. Одним із спосо-
           бів  досягнення  сталості  полягає  в  зменшенні  параметру
           швидкості, що приводить до гальмування навчання. Але
           в цьому випадку з’являється інша проблема - зменшення
           пластичності мережі (здатності узагальнювати нові дані).
           Ці  особливості  навчання  методом  змагання  відомі  під
           назвою дилеми сталості – пластичності.
                 Конкретна  алгоритмічна  реалізація  правил  навчан-
           ня залежить від поставленої задачі. В таблиці представ-
           лені різні алгоритми навчання та пов’язані з ними архіте-
           ктури мереж (список не є вичерпним). Кожний алгоритм
           навчання  зорієнтований на  мережу  певної  архітектури  і
           розрахований на обмежене коло задач. Більшість алгори-
           тмів навчання будується на основі  ітеративної процеду-
           ри.

























                                       141
   136   137   138   139   140   141   142   143   144   145   146