Page 226 - 4703
P. 226

суму колишнього центру нейрона і навчального прик-
                  ладу).
                У алгоритмі при обчисленні зваженої суми використову-
           ється  поступово  спадний  коефіцієнт  швидкості  навчання,  з
           тим  щоб  на  кожній  новій  епосі  корекція  ставала  усе  більш
           тонкою. В результаті положення центру встановиться в деякій
           позиції, яка задовільним чином представляє ті спостереження,
           для яких цей нейрон виявився таким, що виграв.
                Властивість топологічної впорядкованості досягається в
           алгоритмі  за  допомогою  додаткового  використання  поняття
           околиці. Околиця - це декілька нейронів, що оточують нейрон,
           що  виграв.  Подібно  до  швидкості  навчання,  розмір  околиці
           убуває з часом, так що спочатку до неї належить досить вели-
           ке число нейронів (можливо, майже уся топологічна карта); на
           самих останніх етапах околиця стає нульовою (тобто склада-
           ється тільки з нейрона, що виграв). Насправді в алгоритмі Ко-
           хонена  коригування  застосовується  не  лише  до  нейрона,  що
           виграв, але і до усіх нейронів з його поточної околиці.
                Результатом  такої  зміни  околиць  є  те,  що  спочатку  до-
           сить великі ділянки мережі "перетягуються" - і притому помі-
           тно - у бік навчальних прикладів. Мережа формує грубу стру-
           ктуру  топологічного  порядку,  при  якій  схожі  спостереження
           активують групи нейронів, що близько лежать, на топологіч-
           ній карті. З кожною  новою епохою швидкість навчання і роз-
           мір околиці зменшуються, тим самим усередині ділянок карти
           виявляються  усе  більш  тонкі  відмінності,  що  врешті-решт
           призводить до тонкого налаштування кожного нейрона. Часто
           навчання  умисне розбивають на дві фази:  коротшу  -  з вели-
           кою  швидкістю  навчання  і  великими  околицями,  і  довшу  -  з
           малою швидкістю навчання і нульовими або майже нульовими
           околицями.
                Примітка: Результати, показані в цьому прикладі може
           злегка  відрізнятися  для  вашого  аналізу,  оскільки,  наприклад,
           нейронні  мережі  використовують  алгоритми  генераторів  ви-
           падкових чисел для генерації початкового значення ваги (від-
           правних  точок)  нейронних  мереж,  які  часто  призводять  до
           отримання  дещо  відмінного  (локальних  мінімумів)  рішення
           щоразу при запуску аналізу . Також зверніть увагу, що зміна
           виду щільності для генератора випадкових чисел, який вико-
           ристовується для створення підмножин зразків train, test, і val-

                                         226
   221   222   223   224   225   226   227   228   229   230   231