Page 64 - 4524
P. 64

палу дозволяє уникаючи локальний мінімум, просуватись до
                            глобального.
                                  Як і в мережі Хопфілда, мережі може бути представле-
                            ний  частковий  образ  для  доповнення  відсутньої  інформації.
                            Обмеження на число класів, що є менше ніж 15 % від загаль-
                            ної кількості елементів у прошарку образів, все ще застосову-
                            ється.
                                  Алгоритм функціонування мережі
                                  1. Визначити змінну T, що представляє штучну темпера-
                            туру.
                                  2. Пред'явити мережі множину входів і обчислити вихо-
                            ди та цільову функцію.
                                  3. Дати випадкову зміну вагам і перерахувати вихід ме-
                            режі  та  зміну  цільової  функції  у  відповідності  зі  зробленою
                            зміною ваг.
                                  4. Якщо цільова функція зменшилась, то зберегти зміну
                            ваг.
                                  Якщо зміна ваг приводить до збільшення цільової функ-
                            ції, то Ймовірність збереження цієї зміни обчислюється за до-
                            помогою розподілу Больцмана:
                                                                    c
                                                                   
                                                           P( c )  e  kT  ,           (5.18)
                            де P(c) - Ймовірність зміни c у цільовій функції; k - константа,
                            аналогічна константі Больцмана, що вибирається в залежності
                            від задачі; T - штучна температура.
                                  Вибирається випадкове число r з рівномірного розподілу
                            від нуля до одиниці. Якщо P(c) більше, ніж r, то зміна зберіга-
                            ється,  у  противному  випадку  величина  ваги повертається  до
                            попереднього значення.
                                  Ця  процедура  дає  можливість  системі  робити  випадко-
                            вий крок у напрямку, що псує цільову функцію, дозволяючи
                            їй тим самим вириватися з локальних мінімумів.
                                  Кроки 3 і 4 повторюються для кожної з ваг мережі, пос-
                            тупово  зменшуючи  температуру  T,  поки  не  буде  досягнуте
                            припустиме низьке значення цільової функції. У цей момент
                            пред'являється  інший  вхідний  вектор  і  процес  навчання  по-
                            вторюється.  Мережа  навчається  на  всіх  векторах  навчальної
                            множини, поки цільова функція не стане припустимої для всіх
                            з них.


                                                           63
   59   60   61   62   63   64   65   66   67   68   69