Page 79 - 4703
P. 79
Спочатку як межі діапазону для кожної змінної викори-
стовуються значення мінімум/середнє і максимум/стандартне
відхилення. Для логістичної вихідної функції активації хоро-
шими значеннями за умовчанням являються 0.0 і 1.0. Деякі
автори радять використовувати як функцію активації гіпер-
болічний тангенс, який набуває значень в інтервалі (-1.0, +1.0).
Таким прийомом можна поліпшити навчання, тому, що ця
функція (на відміну від логістичної) симетрична. В цьому
випадку треба змінити значення мінімум/середнє і макси-
мум/стандартне відхилення, і програма ST Neural Networks
автоматично буде правильно інтерпретувати класи.
Зворотна впорядкованість, як правило, застосовується в
двох ситуаціях. Одну з них ми тільки що обговорили: це ме-
режі Кохонена, в яких вихідне значення є міра віддаленості, і
її мале значення відповідає більшій довірі. Друга ситуація ви-
никає при використанні матриці втрат (яка може бути додана в
ймовірнісну мережу на етапі її побудови або вручну - до ме-
реж інших типів). Якщо використовується матриця втрат, то
виходи мережі означають очікувані втрати від вибору того або
іншого класу, і мета полягає в тому, щоб вибрати клас з най-
меншими втратами. Впорядкованість можна обернути, оголо-
сивши вихідний сигнал не рівнем довіри, а мірою помилки. У
такому разі поріг прийняття буде нижчий за поріг відкидання.
3.2 Статистики класифікації
При виборі порогів прийняття/відкидання і оцінці здіб-
ностей мережі до класифікації допомагає інформація, що
міститься у вікні Статистики класифікації - Classification
Statistics. У нім вказується, скільки спостережень було кла-
сифіковано правильно, скільки неправильно або взагалі не
класифіковано. Крім того, видається інформація про те, скіль-
ки спостережень кожного класу було віднесено до інших
класів. Усі ці дані видаються окремо для навчального, кон-
трольного і тестового множин.
3.3 Оцінка якості класифікації
79