Page 153 - 4703
P. 153

Навчання мережі SOFM

                 SOFM навчаються методом послідовних наближень, ви-
           користовуючи  алгоритм  Kohonen.  Починаючи  з  випадковим
           чином  вибраного  початкового  розташування  центрів,  алго-
           ритм поступово покращує  його так, щоб  уловлювати класте-
           ризацію навчальних даних. В деякому відношенні ці дії схожі
           на  алгоритми  вибірки  з  вибірки  і  K-середніх,  які  використо-
           вуються для розміщення центрів в мережах RBF і GRNN, і дій-
           сно,  алгоритм  Кохонена  можна  використати  для  розміщення
           центрів в мережах цих типів. Проте, цей алгоритм працює і на
           іншому рівні.
                Окрім  того,  що  вже  сказане,  в  результаті  ітеративної
           процедури навчання мережа організовується таким чином, що
           елементи,  що  відповідають  центрам,  розташованим  близько
           один від одного в просторі входів, розташовуватимуться бли-
           зько  один  від  одного  і  на  топологічній  карті.  Топологічний
           шар мережі можна уявляти собі як двовимірні грати, які треба
           так відобразити в N -вимірний простір входів, щоб по можли-
           вості  зберегти  початкову  структуру  даних.  Звичайно  ж,  при
           будь-якій спробі представити N -вимірний простір на площині
           будуть  втрачено  багато  деталей;  проте,  такий  прийом  іноді
           корисний,  оскільки  він  дозволяє  користувачеві  візуалізувати
           дані, які ніяким іншим способом зрозуміти неможливо.
                Основний  ітераційний  алгоритм  Кохонена  послідовно
           проходить одну за інший ряд епох, при цьому на кожній епосі
           він обробляє кожного з навчальних прикладів і потім застосо-
           вує наступний алгоритм:
                Вибрати нейрон, що виграв (тобто той, який розташо-
                  ваний щонайближче до вхідного прикладу);
                Скоректувати нейрон, що виграв, так, щоб він став бі-
                  льше схожий на цей вхідний приклад (узявши зважену
                  суму колишнього центру нейрона і навчального прик-
                  ладу).
                У алгоритмі при обчисленні зваженої суми використову-
           ється  поступово  спадний  коефіцієнт  швидкості  навчання,  з
           тим  щоб  на  кожній  новій  епосі  корекція  ставала  усе  більш
           тонкою. В результаті положення центру встановиться в деякій
           позиції, яка задовільним чином представляє ті спостереження,
           для яких цей нейрон виявився таким, що виграв.

                                         153
   148   149   150   151   152   153   154   155   156   157   158