Page 45 - 4524
P. 45

початкова відмінність у випадковому розподілі ваг. У більшо-
                            сті  комерційних  пакетів  існує  рекомендоване  розробником
                            число для параметра початкової відмінності.
                                  Парадигма випадкового пошуку має  декілька  важливих
                            рис. Вона є швидкою та легкою у використанні, найкращі ре-
                            зультати отримують, коли початкові ваги знаходяться близько
                            до  найкращих  ваг.  Швидкою  парадигма  є  завдяки  тому,  що
                            для проміжних нейронів похибки не обчислюються, а обчис-
                            люється лише вихідна похибка. Алгоритм надає ефект лише в
                            малій мережі, оскільки при збільшенні числа з'єднань, процес
                            навчання стає довгим та важким.
                                  Існує чотири ключові компоненти мережі з випадковим
                            пошуком. Це є випадковий крок, крок реверсування, скерова-
                            на компонента та самокорегуюча відмінність.
                                  Випадковий крок. До кожної ваги додається випадкова
                            величина. Вся навчальна множина пропускається через мере-
                            жу, створюючи "похибку передбачення". Якщо нова загальна
                            похибка  навчальної  множини  є  меншою  за  попередню  най-
                            кращу похибку передбачення, біжучі значення ваг, які вклю-
                            чають  випадковий  крок  стають  новою  множиною  "найкра-
                            щих" ваг. Біжуча похибка передбачення зберігається як нова,
                            найкраща похибка передбачення.
                                  Крок реверсування. Якщо результати випадкового кроку
                            є гіршими за попередні найкращі, випадкова величина відні-
                            мається від початкового значення ваги. Це створює множину
                            ваг,  які  знаходяться  в  протилежному  напрямку  до  поперед-
                            нього  випадкового  кроку.  Якщо  загальна  "похибка  передба-
                            чення"  є  меншою  за  попередню  найкращу  похибку,  біжучі
                            значення ваг та біжуча похибка передбачення зберігаються як
                            найкращі.  Якщо  і  прямий  і  зворотній  кроки  не  покращують
                            результат, до найкращих ваг додається повністю нова множи-
                            на випадкових значень і процес починається спочатку.
                                  Скерована компонента.  Для збіжності мережі створю-
                            ється множина скерованих компонент, отриманих по резуль-
                            татах  прямого  та  зворотного  кроків.  Скеровані  компоненти,
                            що відображають ланку успіхів або невдач попередніх випад-
                            кових кроків, додаються до випадкових компонент на кожно-
                            му кроці процедури і забезпечують елемент "здорового глуз-
                            ду"  до  пошуку.  Доведено,  що  додавання  скерованих  компо-
                            нент забезпечує різке підвищення ефективності алгоритму.

                                                           44
   40   41   42   43   44   45   46   47   48   49   50