Page 69 - 4524
P. 69

Для порівняння: мережа Хопфилда є автоасоціативною.
                            Вхідний образ може бути відновлений чи виправлений мере-
                            жею, але не може бути асоційований з іншим образом. У ме-
                            режі  Хопфілда  використовується  одношарова  структура  асо-
                            ціативної пам'яті, у якій вихідний вектор з'являється на виході
                            тих же нейронів, на які надходить вхідний вектор.
                                  Двоскерована асоціативна пам'ять, як і мережа Хопфіл-
                            да, здатна до узагальнення, виробляючи правильні вихідні си-
                            гнали, незважаючи на спотворені входи.
                                  Розглянемо  схему  двоскерованої  асоціативної  пам'яті.
                            Вхідний вектор A обробляється матрицею ваг W мережі, у ре-
                            зультаті  чого продукується  вектор  вихідних  сигналів  мережі
                                                                                        T
                            B. Вектор B обробляється транспонованою матрицею W  ваг
                            мережі, яка продукує сигнали, що представляють новий вхід-
                            ний вектор A. Цей процес повторюється доти, поки мережа не
                            досягне стабільного стану, у якому ні вектор A, ні вектор B не
                            змінюються.
                                  Нейрони в прошарках 1 і 2 функціонують, як і в інших
                            парадигмах, обчислюючи суму зважених входів і значення пе-
                            редатної функції F:
                                                          b   F   a  w ,             (5.24)
                                                            j        j  ij
                                                                  j
                            або у векторній формі:
                                                        B=F(AW),                       (5.25)
                                  де B - вектор вихідних сигналів нейронів прошарку 2, A -
                            вектор вихідних сигналів нейронів прошарку 1, W - матриця
                            ваг зв'язків між прошарками 1 і 2, F - передатна функція.
                                                       T
                                                               T
                                  Аналогічно A=F(BW ), де W  є транспозицією матриці W.
                                  В якості передатної функції використовується експонен-
                            тна сигмоїда.
                                  Прошарок 0 не робить обчислень і не має пам'яті. Він є
                            лише  засобом  розподілу  вихідних  сигналів  прошарку  2  до
                                                 T
                            елементів матриці W .
                                  Формула для обчислення значень синаптичних ваг:
                                                   W      A T j  B ,                 (5.26)
                                                               j
                                                         j
                                  де A j і B j - вхідні і вихідні сигнали навчальної вибірки.
                                  Вагова матриця обчислюється як сума добутків всіх век-
                            торних пар навчальної вибірки.

                                                           68
   64   65   66   67   68   69   70   71   72   73   74