Page 46 - 4524
P. 46
Самокорегуюча відмінність. Визначається параметр
початкової відмінності для керування початковим розміром
випадкових кроків, що додається до ваг. Адаптивний механізм
змінює параметр відмінності, який базується на біжучій оцінці
успіху або невдачі. Правило навчання припускає, що біжучий
розмір кроків для ваг у правильному напрямку збільшується
для випадку декількох послідовних успіхів. Навпаки, якщо
воно виявляє декілька послідовних невдач, відмінність змен-
шується для зменшення розміру кроку.
Переваги.Для малих та середніх нейромереж, скерова-
ний випадковий пошук надає добрі результати за короткий
час. Навчання є автоматичним, вимагає невеликої взаємодії з
користувачем.
Недоліки.Кількість ваг з'єднань накладає практичні об-
меження на розмір задачі. Якщо мережа має більше ніж 200
ваг з'єднань, скерований випадковий пошук може вимагати
збільшення часу навчання, але продукувати прийнятні рішен-
ня.
5.6 Нейронна мережа вищого порядку або
функціонально-пов'язана нейронна мережа
Функціонально-пов'язані мережі були розроблені Йох-
Хан Пао (Yoh-Han Pao) і детально описані в його книзі "Адап-
тивне розпізнавання образів та нейронні мережі" (Adaptive
Pattern Recognition and Neural Networks). Нейромережа роз-
ширює стандартну архітектуру FeedForward BackPropagation
модифікацією вузлів на вхідному прошарку. Входи комбіну-
ються зрозумілим математичним шляхом за допомогою функ-
цій вищого порядку, таких як квадрати, куби або синуси і ро-
зширюють сприйняття мережею заданої проблеми. Із назв цих
функцій, вищого порядку або функціонально пов'язаних вхо-
дів і випливає назва нейромереж.
Існує два основних способи додавання вхідних вузлів. В
першому, у модель можуть додаватись перехресні добутки
вхідних елементів, це називається вхідним добутком або тен-
зорною моделлю, де кожна компонента вхідного образу пере-
множується зі всіма компонентами вхідного вектора. Напри-
клад, для мережі ВackРropagation з трьома входами (A, B і C),
перехресними добутками будуть AA, BB, CC, AB, AC та BC
45