Page 28 - 4143
P. 28

Рисунок 1.11 –  Діаграма сигналів в мережі при навчанні за

                                       алгоритмом зворотного розповсюдження
                                       помилки



                     З  виразу  (1.32)  виходить,  що,  коли  вихідне  значення    y                     i ( n - 1)
                  прямує  до  нуля,  ефективність  навчання  помітно  знижується.  При
                  двійкових вхідних векторах в середньому половина вагових

                  коефіцієнтів не коректуватиметься, тому область можливих значень
                  виходів  нейронів  [0,  1]  бажано  зсунути  в  межі  [-0.5,  0.5],  що
                  досягається          простою         модифікацією            логістичної          функцій.

                  Наприклад, сигмоід з експонентою перетворюється до вигляду


                                                              1
                                         f(x) = -0.5+                 .                                 (1.38)
                                                        1  exp( ax  )

                     Даний  алгоритм  має  декілька  "вузьких  місць".  По-перше,  в
                  процесі навчання може виникнути ситуація, коли великі позитивні
                  або негативні значення вагових коефіцієнтів змістять робочу точку

                  на сигмоідах багатьох нейронів в область насичення. Малі величини

                  похідної від логістичної функції приведуть у відповідності з (1.30) і
                  (1.31) до зупинки навчання, що паралізує. По-друге, вживання
                  методу  градієнтного  спуску  не  гарантує,  що  буде  знайдений

                  глобальний, а не локальний мінімум цільової функції. Ця проблема
                  пов'язана  ще  з  однією,  а  саме  -  з  вибором  коефіцієнта  швидкості
                  навчання η.

                                                                   28
   23   24   25   26   27   28   29   30   31   32   33