Page 57 - 4524
P. 57
до будь-якого заданого вагового вектора, дорівнює 1/k, k - чи-
сло нейронів Кохонена.
Мережа швидко навчається. Час навчання в порівнянні
зі зворотним поширенням може бути в 100 разів менше.
По своїх можливостях будувати відображення мережа
зустрічного поширення значно перевершує одношарові пер-
цептрони.
Мережа корисна для застосувань, у яких потрібно
швидка початкова апроксимація.
Мережа дає можливість будувати функцію і зворотну
до неї, що знаходить застосування при рішенні практичних
задач.
Модифікації. Мережі зустрічного поширення можуть
розрізнятися способами визначення початкових значень сина-
птичних ваг.
Для підвищення ефективності навчання застосовується
додавання шуму до вхідних векторів.
Ще один метод підвищення ефективності навчання - на-
дання кожному нейрону "почуття справедливості". Якщо ней-
рон стає переможцем частіше, ніж 1/k (k - число нейронів Ко-
хонена), то йому тимчасово збільшують поріг, даючи тим са-
мим навчатися й іншим нейронам.
Крім "методу акредитації", при якому для кожного вхід-
ного вектора активується лише один нейрон Кохонена, може
бути використаний "метод інтерполяції", при використанні
якого ціла група нейронів Кохонена, що мають найбільші ви-
ходи, може передавати свої вихідні сигнали в прошарок Грос-
берга. Цей метод підвищує точність відображень, реалізова-
них мережею.
5.10 Ймовірнісна нейронна мережа
Ймовірнісна нейронна мережа була розроблена Дональ-
дом Спехтом (Donald Specht). Ця мережна архітектура була
вперше представлена у двох статтях : "Ймовірнісні нейронні
мережі для класифікації" (Probabilistic Neural Networks for
Classification) 1988, "Відображення або асоціативна пам'ять та
Ймовірнісні нейронні мережі" (Mapping or Associative Memory
and Probabilistic Neural Networks) 1990 р.
56