Page 37 - 4524
P. 37
N
y( t) f w i t) ( x ( t) b , (5.1)
i
i 1
4. Налаштування значень ваг:
w i(t+1)=w i (t)+r[d(t)-y(t)]x i (t), i=1, ..., N, (5.2)
вихідний,1 клас А
d( t) , (5.3)
вихідний,1 клас В
де w і(t) - вага зв'язку від і-го елемента вхідного сигналу до
нейрона в момент часу t, r - швидкість навчання (менше 1),
d(t) - бажаний вихідний сигнал.
Якщо мережа приймає правильне рішення, синаптичні
ваги не модифікуються.
5. Перехід до кроку 2.
Тип вхідних сигналів: бінарні чи аналогові (дійсні).
Розмірності входу і виходу обмежені при програмній
реалізації тільки можливостями обчислювальної системи, на
якій моделюється нейронна мережа, при апаратній реалізації -
технологічними можливостями.
Області застосування: розпізнавання образів, класифі-
кація.
\ Недоліки. Примітивні поділяючі поверхні (гіперпло-
щини) дають можливість вирішувати лише найпростіші задачі
розпізнавання.
Переваги. Програмні та апаратні реалізації моделі дуже
прості. Простий і швидкий алгоритм навчання.
Модифікації. Багатошарові перцептрони (рис. 5.2) да-
ють можливість будувати більш складні поділяючі поверхні і
тому більш поширені.
Рисунок 5.2 - Перцептрон із багатьма виходами
36