Page 225 - 4703
P. 225

один з відомих зразків, то вона не зможе класифікувати такий
           набір і тим самим виявить його новизну.
                Відмітимо, що, хоча мережі SOFM не повинні викорис-
           тати вихідні змінні для навчання, вони можуть використати їх,
           якщо  вони  є.  Виходом  мережі  SOFM  в  Нейронних  мережах
           STATISTICA завжди є номінальна змінна (тобто, вона завжди
           виступає класифікатором).

                Навчання мережі SOFM

                SOFM навчаються методом послідовних наближень, ви-
           користовуючи  алгоритм  Kohonen.  Починаючи  з  випадковим
           чином  вибраного  початкового  розташування  центрів,  алго-
           ритм поступово покращує  його так, щоб  уловлювати класте-
           ризацію навчальних даних. В деякому відношенні ці дії схожі
           на  алгоритми  вибірки  з  вибірки  і  K-середніх,  які  використо-
           вуються для розміщення центрів в мережах RBF і GRNN, і дій-
           сно,  алгоритм  Кохонена  можна  використати  для  розміщення
           центрів в мережах цих типів. Проте, цей алгоритм працює і на
           іншому рівні.
                Окрім  того,  що  вже  сказане,  в  результаті  ітеративної
           процедури навчання мережа організовується таким чином, що
           елементи,  що  відповідають  центрам,  розташованим  близько
           один від одного в просторі входів, розташовуватимуться бли-
           зько  один  від  одного  і  на  топологічній  карті.  Топологічний
           шар мережі можна уявляти собі як двовимірні грати, які треба
           так відобразити в N -вимірний простір входів, щоб по можли-
           вості  зберегти  початкову  структуру  даних.  Звичайно  ж,  при
           будь-якій спробі представити N -вимірний простір на площині
           будуть  втрачено  багато  деталей;  проте,  такий  прийом  іноді
           корисний,  оскільки  він  дозволяє  користувачеві  візуалізувати
           дані, які ніяким іншим способом зрозуміти неможливо.
                Основний  ітераційний  алгоритм  Кохонена  послідовно
           проходить одну за інший ряд епох, при цьому на кожній епосі
           він обробляє кожного з навчальних прикладів і потім застосо-
           вує наступний алгоритм:
                Вибрати нейрон, що виграв (тобто той, який розташо-
                  ваний щонайближче до вхідного прикладу);
                Скоректувати нейрон, що виграв, так, щоб він став бі-
                  льше схожий на цей вхідний приклад (узявши зважену

                                         225
   220   221   222   223   224   225   226   227   228   229   230