Page 50 - 4144
P. 50

49


               можна  було  б  моделювати  безпосередньо.  Інша  істотна  особливість
               нейронних  мереж  полягає  в  тому,  що  залежність  між  входом  і  виходом
               визначається в процесі навчання мережі. Для навчання нейронних мереж
               застосовують  алгоритми  двох  типів  (для  різних  типів  мереж
               використовують різні тини навчання): кероване («навчання з учителем») і
               некероване  («навчання  без  учителя»).  Найчастіше  застосовується
               «навчання з учителем».
                      Користувач  повинен  підготувати  для  нейронної  мережі  набір
               навчальних  даних.  Ці  дані  є  прикладами  вхідних  даних  і  відповідних  їм
               виходів. Мережа вчиться встановлювати зв'язок між входами і виходами.
               Звичайно  навчальні  дані  беруться  з  існуючої  інформації.  Наприклад,  це
               можуть бути попередні значення цін акцій та індексу FTSE, відомості про
               позичальників, яким уже надавалися позики, — їхні анкетні дані і те, чи
               успішно  вони  виконали  свої  зобов'язання,  тощо.  Потім  нейронна  мережа

               навчається за допомогою того або іншою алгоритму (найвідомішим з них с
               метод      зворотного       розповсюдження),          при     якому      існуючі      дані
               використовуються  для  того,  щоб  мінімізувати  помилку  прогнозу.  Якщо
               мережа  навчена  добре,  вона  набуває  здатності  моделювати  «невідому»
               функцію,  що  зв'язує  значення  вхідних  і  вихідних  змінних,  і  згодом  таку
               мережу можна використовувати для прогнозування в такій ситуації, коли
               вихідні значення невідомі.
                      Кожна нейронна мережа отримує, на вході числові значення і видає
               на  виході  також  числові  значення.  Передатна  функція  для  кожного
               елемента  мережі  зазвичай  вибирається  так,  щоб  її  вхідний  аргумент  міг
               набувати  довільних  значень,  а  вихідні  значення  перебували  б  у  суворо
               обмеженому діапазоні.
                      Задачу  прогнозування  можна  поділити  на  два  основні  класи:
               класифікації  і  регресії.  Зокрема,  у  задачах  класифікації  потрібно
               визначити,  до  якого  з  кількох  заданих  класів  належить  певний  вхідний
               набір.  Прикладами  таких  задач  можуть  бути:  надання  кредиту  (до  групи
               високого  чи  низького  кредитного  ризику  належить  особа),  діагностика
               ракових  захворювань  (пухлина  э  чи  ні),  розпізнавання  підпису
               (підроблений, справжній). В усіх цих випадках на виході потрібна всього
               одна номінальна змінна. У задачах регресії потрібно передбачити значення
               змінної: завтрашню ціну акцій, витрату пального в автомобілі, прибутки в
               наступному році тощо. У таких випадках як вихідна потрібна одна числова
               змінна.
                      Нейронна мережа може розв'язувати одночасно кілька задач регресії
               і (або) класифікації, проте звичайно в кожен момент розв'язується тільки
               одна задача.
                      Для  навчання  нейронної  мережі  крім  методу  зворотного
               розповсюдження  (back  propagation)  є  інші  сучасні  алгоритми  другого
               порядку,  зокрема  метод  спряжених  градієнтів  і  метод  Левенберга  —
   45   46   47   48   49   50   51   52   53   54   55