Page 50 - 4144
P. 50
49
можна було б моделювати безпосередньо. Інша істотна особливість
нейронних мереж полягає в тому, що залежність між входом і виходом
визначається в процесі навчання мережі. Для навчання нейронних мереж
застосовують алгоритми двох типів (для різних типів мереж
використовують різні тини навчання): кероване («навчання з учителем») і
некероване («навчання без учителя»). Найчастіше застосовується
«навчання з учителем».
Користувач повинен підготувати для нейронної мережі набір
навчальних даних. Ці дані є прикладами вхідних даних і відповідних їм
виходів. Мережа вчиться встановлювати зв'язок між входами і виходами.
Звичайно навчальні дані беруться з існуючої інформації. Наприклад, це
можуть бути попередні значення цін акцій та індексу FTSE, відомості про
позичальників, яким уже надавалися позики, — їхні анкетні дані і те, чи
успішно вони виконали свої зобов'язання, тощо. Потім нейронна мережа
навчається за допомогою того або іншою алгоритму (найвідомішим з них с
метод зворотного розповсюдження), при якому існуючі дані
використовуються для того, щоб мінімізувати помилку прогнозу. Якщо
мережа навчена добре, вона набуває здатності моделювати «невідому»
функцію, що зв'язує значення вхідних і вихідних змінних, і згодом таку
мережу можна використовувати для прогнозування в такій ситуації, коли
вихідні значення невідомі.
Кожна нейронна мережа отримує, на вході числові значення і видає
на виході також числові значення. Передатна функція для кожного
елемента мережі зазвичай вибирається так, щоб її вхідний аргумент міг
набувати довільних значень, а вихідні значення перебували б у суворо
обмеженому діапазоні.
Задачу прогнозування можна поділити на два основні класи:
класифікації і регресії. Зокрема, у задачах класифікації потрібно
визначити, до якого з кількох заданих класів належить певний вхідний
набір. Прикладами таких задач можуть бути: надання кредиту (до групи
високого чи низького кредитного ризику належить особа), діагностика
ракових захворювань (пухлина э чи ні), розпізнавання підпису
(підроблений, справжній). В усіх цих випадках на виході потрібна всього
одна номінальна змінна. У задачах регресії потрібно передбачити значення
змінної: завтрашню ціну акцій, витрату пального в автомобілі, прибутки в
наступному році тощо. У таких випадках як вихідна потрібна одна числова
змінна.
Нейронна мережа може розв'язувати одночасно кілька задач регресії
і (або) класифікації, проте звичайно в кожен момент розв'язується тільки
одна задача.
Для навчання нейронної мережі крім методу зворотного
розповсюдження (back propagation) є інші сучасні алгоритми другого
порядку, зокрема метод спряжених градієнтів і метод Левенберга —