Page 44 - 4524
P. 44

Переваги. Парадигма Delta Bar Delta є спробою приско-
                            рити  процес  збіжності  алгоритму  зворотного  поширення  за
                            рахунок використання додаткової інформації про зміну пара-
                            метрів і ваг під час навчання.
                                  Недоліки:
                                   Навіть невелике лінійне збільшення коефіцієнта може
                            привести до значного росту швидкості навчання, що викликає
                            стрибки в просторі ваг.
                                   Геометричне зменшення коефіцієнта іноді виявляється
                            не досить швидким.

                                  5.4 Extended Delta Bar Delta

                                  Елі Мінаї (Ali Minai) та Рон Вільямс (Ron Williams) роз-
                            робили алгоритм Extended Delta bar Delta, як природній наслі-
                            док роботи Джекобса. В алгоритм вбудовується пам'ять з осо-
                            бливістю відновлення. Після кожного представлення навчаль-
                            них даних епохи, оцінюється накопичена похибка. Якщо по-
                            хибка є меншою за попередню мінімальну похибку, ваги збе-
                            рігаються у пам'яті, як найкращі на цей час. Параметр допуску
                            керує  фазою  відновлення.  У  випадку,  коли  біжуча  похибка
                            перевищує мінімальну попередню похибку, модифіковану па-
                            раметром допуску, всі значення ваг з'єднань стохастичне по-
                            вертаються до збереженої у пам'яті найкращої множини ваг.

                                  5.5 Скерований випадковий пошук

                                  Мережа  скерованого  випадкового  пошуку  (Directed
                            Random  Search),  використовує  стандартну  архітектуру
                            FeedForward, яка не базується на алгоритмі BackProragation і
                            коректує ваги випадковим чином. Для забезпечення порядку в
                            такому процесі, до випадкового кроку додається компонента
                            напрямку, яка гарантує скерування ваг до попередньо успіш-
                            ного  напрямку  пошуку.  Вплив  на  всі  нейрони  здійснюється
                            окремо.
                                  Для збереження ваг всередині компактної області, де ал-
                            горитм працює добре, встановлюють верхню межу величини
                            ваги. Встановлюючи межі ваг великими, мережа може продо-
                            вжувати працювати, оскільки справжній глобальний оптимум
                            лишається невідомим. Іншою особливістю правила навчання є

                                                           43
   39   40   41   42   43   44   45   46   47   48   49