Page 140 - 4196
P. 140
(самонавчання) і мішана. В першому випадку нейронна
мережа має правильні відповіді (виходи мережі) на кож-
ну вхідну навчальну вибірку. Вагові коефіцієнти налаш-
товуються таким чином, щоби виходи мережі були як
можна ближче до правильних відповідей. Навчання «без
вчителя» не потребує знання правильних відповідей на
кожний приклад навчальної вибірки. В цьому випадку
розкривається внутрішня структура даних, що дозволяє
розподілити тестові приклади по категоріям. При міша-
ному навчанні частина ваг визначається шляхом навчан-
ня «з вчителем», інша частина – шляхом самонавчання.
Теорія навчання НМ розглядає три фундаментальні
властивості, пов’язані з процесом навчання по еталонам:
ємність, складність еталонів та обчислювальна склад-
ність. Під ємністю мережі розуміється, яку кількість ета-
лонів вона здатна запам’ятати. Складність еталонів ви-
значає число навчальних вибірок, необхідних для досяг-
нення максимальної роздільної здатності мережі. Занадто
мала кількість навчальних прикладів може привести до
незадовільної роботи НМ.
Відомо 4 основних правила навчання: правило Хеб-
ба, корекція за похибкою, правило Больцмана, навчання
методом змагання.
Правило Хебба. Особливістю цього правила є те, що
зміна ваги зв’язку двох нейронів залежить лише від їх
активності.
Правило корекції за похибкою. При навчанні «з вчи-
телем» для навчальної вибірки відомий правильний вихід
мережі d . Реальний вихід мережі y може не співпадати
з бажаним.
Принцип корекції за похибкою полягає у викорис-
танні величини d y для зміни ваг. Існують різні мо-
дифікації цього алгоритму навчання.
Правило Больцмана. Метою навчання Больцмана є
такий підбір вагових коефіцієнтів, який веде до бажаного
розподілу імовірностей стану нейронів. Модифікація ваг
ведеться за розходженням кореляції стану нейронів.
Навчання методом змагання. При навчанні за цим
правилом модифікуються тільки ваги найбільш активно-
го вихідного нейрона («переможця»).
140