Page 40 - 4703
P. 40

можна  згодом  врахувати  (якщо  стали  відомі  апріорні
           вірогідністі),  вводячи  поправочні  коефіцієнти  для  різних
           класів.
                Другий  варіант  модифікації  заснований  на  наступній
           ідеї. Будь-яка оцінка, що видається мережею, грунтується на
           зашумленних даних і неминуче призводитиме до окремих по-
           милок  класифікації  (наприклад,  у  деяких  хворих  результати
           аналізів  можуть  бути  цілком  нормальними).  Іноді  буває  до-
           цільно вважати, що деякі види помилок обходяться "дорожче"
           за інших (наприклад, якщо здорова людина буде діагностована
           як  хворий,  то  це  викличе  зайві  витрати  на  його  обстеження,
           але не створить загрози для життя; якщо ж не буде виявлений
           дійсний хворий, то це може привести до смертельного резуль-
           тату).  У  такій  ситуації  та  вірогідність,  яку  видає  мережа,
           належить  домножить  на  коефіцієнти  втрат,  що  відбивають
           відносну  ціну  помилок  класифікації.  У  пакеті  ST  Neural
           Networks в імовірнісну нейронну мережу може бути доданий
           четвертий шар, що містить матрицю втрат. Вона множиться на
           вектор оцінок, отриманий в третьому шарі, після чого в якості
           відповіді береться клас, що має найменшу оцінку втрат. (Мат-
           рицю втрат можна додавати і до інших видів мереж, принза-
           чених для завдання класифікації.)
                Імовірнісна нейронна мережа має  єдиний керуючий па-
           раметр  навчання,  значення  якого  повинне  вибиратися  кори-
           стувачем  -  міра  згладжування  (чи  відхилення  гаусової
           функції). Як і у разі RBF-мереж, цей параметр вибирається з
           тих міркувань, щоб шапки " певне число разів перекривалися":
           вибір  занадто  маленьких  відхилень  приведе  до  "гострих"
           апроксимуючих функцій і нездатності мережі до узагальнення,
           а  при  занадто  великих  відхиленнях  втрачатимуться  деталі.
           Необхідне  значення  нескладно  знайти  дослідним  шляхом,
           підбираючи його так, щоб контрольна помилка була якомога
           менше. На щастя, PNN-мережі не дуже чутливі до вибору па-
           раметра згладжування.
                Найбільш  важливі  переваги  PNN-мережі  полягають  в
           тому, що вихідне значення має імовірнісний сенс (і тому його
           легше інтерпретувати), і в тому, що мережа швидко навчаєть-
           ся.  При  навчання  такої  мережі  час  витрачається  практично
           тільки на те, щоб подавати їй на вхід навчальні спостережен-


                                          40
   35   36   37   38   39   40   41   42   43   44   45