Page 78 - 4703
P. 78
рівні прийняття/відкидання, рівні 0.3/0.7, означають наступне:
"вибрати клас, відповідний елементу, що виграв, за умови, що
його вихід був не нижчий 0.3 і ні у якого іншого елементу ак-
тивація не перевищувала 0.7" - іншими словами, для того, щоб
рішення було прийняте, переможець повинен показати поміт-
ний рівень активації, а програвші - не занадто високий.
Усе сказане відноситься до механізму вибору класу для
більшості типів мереж: MLP, RBF, лінійних мереж і PNN (одне
виключення: в PNN-мережі не можна використовувати бінарне
кодування, і навіть бінарні номінальні вихідні змінні
оцінюються за допомогою кодування 1-із-N). На відміну від
них, мережа Кохонена діє абсолютно інакше.
У мережі Кохонена елементом топологічної карти
(вихідного шару), що виграв, є той, у якого найвищий рівень
активації (він вимірює відстань від вхідного прикладу до точ-
ки, координати якої зберігаються в елементі мережі). Деякі
або навіть усі елементи топологічної карти можуть бути
помічені іменами класів. Якщо ця відстань достатня мало, то
даний випадок зараховується до відповідного класу (за умови,
що вказано ім'я класу). У пакеті ST Neural Networks значення
порогу прийняття - це найбільша відстань, на якій приймаєть-
ся позитивне рішення про класифікацію спостереження. Якщо
ж вхідний випадок лежить від елементу, що виграв, на більш
далекій відстані або якщо елемент, що виграв, не був поміче-
ний (чи якщо його мітка не відповідає жодному зі значень
вихідної номінальної змінної), то випадок залишається таким,
що не класифікується. Поріг відкидання в мережах Кохонена
не використовується.
У наших розглядах ми припускали, що "позитивному"
рішенню про класифікацію повинне відповідати значення,
близьке до 1.0, а "негативному" - близьке до 0.0. Це дійсно так
у тому випадку, якщо на виході використовуються логістичні
функції активації. Крім того, це зручно, оскільки вірогідність
може набувати значень від 0.0 до 1.0. Проте, в деяких ситу-
аціях може виявитися зручнішим використовувати інший
діапазон. Іноді застосовується зворотна впорядкованість, так
що позитивне рішення відповідає малим вихідним значенням.
Пакет ST Neural Networks підтримує будь-який з цих варіантів
роботи.
78