Page 63 - 4524
P. 63

3.  Перевіряємо чи змінилися вихідні значення виходів за
                            останню  ітерацію.  Якщо  так  -  перехід  до  пункту  2,  інакше
                            (якщо виходи стабілізувались) - кінець. При цьому вихідний
                            вектор являє собою зразок, що найкраще відповідає вхідним
                            даним.
                                  Іноді мережа не може провести розпізнавання і видає на
                            виході неіснуючий образ. Це пов'язано з проблемою обмеже-
                            ності можливостей мережі. Для мережі Хопфілда число запа-
                            м'ятованих  образів  m  не  повинно  перевищувати  величини,
                            приблизно рівної 0.15•n. Крім того, якщо два образи А и Б си-
                            льно схожі, вони, можливо, будуть викликати в мережі перех-
                            ресні асоціації, тобто пред'явлення на входи мережі вектора А
                            призведе до появи на її виходах вектори Б и навпаки.

                                  5.12 Машина Больцмана

                                  Машина  Больцмана  (Boltzmann  mashine)  є  подібною  за
                            функцією та дією до мережі Хопфілда і включає поняття "мо-
                            дельованого відпалу" для пошуку в просторі станів прошарку
                            образів глобальний мінімум.
                                  Еклі  (Ackley),  Хінтон  (Hinton)  та  Сейновскі  (Sejnowski)
                            розробили правило больцманівського навчання у 1985 р. По-
                            дібно  до  мережі  Хопфілда,  машина  Больцмана  має  простір
                            станів, який базується на вагах з'єднань  у прошарку образів.
                            Процеси навчання мережі, наповненої образами, включає ви-
                            вчення рельєфу простору станів. Під час ітеративного навчан-
                            ня знаходяться краща множина вихідних значень.
                                  В процесі навчання машина Больцмана моделює відпал
                            металу. Як і при фізичному відпалі, температура починається
                            з вищих значень і зменшується з часом. Збільшена температу-
                            ра додає збільшений шумовий коефіцієнт до кожного нейрону
                            у прошарку образів. Звичайно, кінцева температура є нулем.
                            Для досягнення кращого рішення доцільно на нижчих темпе-
                            ратурах додавати більше ітерацій.
                                  Машина Больцмана, навчаючись на високій температурі,
                            веде себе більш подібно до випадкової моделі, а на низьких
                            температурах вона веде себе як детермінована модель. Через
                            випадкову компоненту у відпаловому навчанні, нейрон може
                            прийняти нове значення стану, що збільшується швидше, ніж
                            зменшується загальний простір станів. Імітація фізичного від-

                                                           62
   58   59   60   61   62   63   64   65   66   67   68