Page 77 - 4522
P. 77
Крок 5. Якщо досягнута збіжність, то процедура
навчання закінчується; у протилежному випадку – перехід до
кроку 2.
Відповідно до даного алгоритму спочатку виробляється
ініціалізація параметрів персептрона випадковими
значеннями. Потім по черзі пред'являються екземпляри з
відомою класифікацією, обрані з навчальної множини, і
корегуються ваги відповідно до формул кроків 3 і 4. Величина
корекції визначається позитивним коригувальним приростом
η, конкретне значення якого вибирається досить великим, щоб
швидше вироблялася корекція ваг, і в той же час досить
малим, щоб не допустити надмірного зростання значень ваг.
Процедура навчання продовжується до тих пір, поки не
буде досягнута збіжність, тобто поки не будуть отримані ваги,
що забезпечують правильну класифікацію для всіх образів з
навчальної множини.
У тому випадку, коли навчальні вибірки розділити
гіперплощиною неможливо для навчання персептрона можна
використовувати алгоритм Уідроу-Хоффа, який мінімізує
середньоквадратичну помилку між бажаними і реальними
виходами мережі для навчальних даних. Цей алгоритм також
можна застосовувати для навчання одношарового дійсного
персептрона. Алгоритм Уідроу-Хоффа можна записати в тому
ж вигляді, що і вищеописаний алгоритм, припускаючи, що у
вузлах персептрона нелінійні елементи відсутні, а
коригувальний приріст η у процесі ітерацій поступово
зменшується до нуля.
Якщо для рішення задачі розпізнавання образів
використовується дискретний персептрон, то вирішальне
правило відносить вхідний образ до класу A, якщо вихід
персептрона дорівнює 1, і до класу В – у протилежному
випадку.
У випадку, якщо для рішення задач розпізнавання
образів використовується дійсний персептрон, то вирішальне
правило відносить вхідний образ до класу А, якщо вихід
мережі більше 0.5, і до класу В – у протилежному випадку.
76