Page 35 - 4524
P. 35
Розмір області сусідства може змінюватись під час пері-
оду навчання. Звичайна парадигма повинна починатись з ве-
ликої області визначення сусідства і зменшуватись під час
процесу навчання. Оскільки елемент-переможець визначаєть-
ся по найвищій відповідності до вхідного зразку, мережі
Коxонена моделюють розподіл входів. Це правило використо-
вується в самоорганізованих картах.
Контрольні запитання
1 Які існують підходи до навчання штучних нейронних
мереж?
2 В чому відмінність контрольованого навчання від не-
контрольованого?
3 Поясніть правило навчання Гебба.
4 На чому засноване дельта правило?
5 В чому суть навчання методом змагання?
5 Архітектури штучних нейронних мереж
5.1 Перцептрон Розенбалата
Оскільки всі штучні нейронні мережі базуються на кон-
цепції нейронів, з'єднань та передатних функцій, існує подіб-
ність між різними структурами або архітектурами нейронних
мереж. Більшість змін походить з різних правил навчання. Ро-
зглянемо деякі з найвідоміших штучних нейромереж, які ор-
ганізовані в певні категорії застосувань.
Першою моделлю нейромереж вважають перцептрон
Розенбалата. Теорія перцептронів є основою для багатьох ти-
пів штучних нейромереж прямого поширення і вони є класи-
кою для вивчення.
Одношаровий перцептрон здатний розпізнавати найпро-
стіші образи. Окремий нейрон обчислює зважену суму елеме-
нтів вхідного сигналу, віднімає значення зсуву і пропускає ре-
зультат через жорстку порогову функцію, вихід якої дорівнює
+1 чи -1. В залежності від значення вихідного сигналу прий-
мається рішення:
+1 - вхідний сигнал належить класу A,
34