Page 33 - 4143
P. 33

де  п  -  розмірність  вектору  ваг  для  нейронів  ініціалізованого

                  шару.
                     На  основі  розглянутого  методу  будуються  нейронні  мережі
                  особливого типу - так звані структури, що самоорганізовуються, -
                  self-organizing feature maps. Проте йдеться не про зміну структури

                  мережі, а тільки про настроювання синапсів. Для них після вибору
                  з шару n  j-го нейрона з мінімальною відстанню D  навчається по
                                                                                          j
                  формулі (1.41) не тільки цей нейрон, але і його сусіди, розташовані

                  в  околі  R  .  Величина R  на  перших  ітераціях  дуже  велика,  так що
                  навчаються  всі  нейрони,  але  з  часом  вона  зменшується  до  нуля.
                  Таким  чином,  чим  ближче  кінець  навчання,  тим  точніше
                  визначається  група  нейронів,  що  відповідають  кожному  класу

                  образів.
                     Іншим  поширеним  методом  навчання  "без  вчителя"  є  навчання

                  методом змагання. На відміну від правила навчання Хебба, в якому;
                  багато  вихідних  нейронів  можуть  збуджуватися  одночасно,  при
                  навчанні  змагання  вихідні  нейрони  змагаються  між  собою  за
                  активізацію. Це явище відоме як правило "переможець забірає все".

                  Подібне  навчання  має  місце  в  біологічних  нейронних  мережах.
                  Навчання  за  допомогою  змагання  дозволяє  кластеризувати  вхідні
                  дані:  подібні  приклади  групуються  мережею  відповідно  до

                  кореляції і представляються одним елементом.
                     При  навчанні  модифікується  тільки  вага  нейрона,  що  "переміг".
                  Ефект  цього  правила  досягається  за  рахунок  такої  зміни
                  збереженого в мережі зразка (вектора вагових коефіцієнтів нейрона,

                  що переміг), при якому він стає трохи ближче до вхідного образу.
                  Необхідно  помітити,  що  мережа  ніколи  не  перестане  навчатися,
                  якщо  параметр  швидкості  навчання  не  рівний  нулю.  Деякий

                  вхідний  зразок  може  активізувати  інший  вихідний  нейрон  на
                  подальших  ітераціях  в  процесі  навчання.  Це  ставить  питання  про
                  стійкість  навчальної  системи.  Система  вважається  стійкою,  якщо

                  жоден  з  прикладів  навчальної  вибірки  не  змінює  своєї
                  приналежності  до  категорії  після  кінцевого  числа  ітерацій
                  навчального  процесу.  Один  із  способів  досягнення  стабільності

                  полягає  в  поступовому  зменшенні  до  нуля  параметра  швидкості
                  навчання.  Проте  це  штучне  гальмування  навчання  викликає  іншу
                  проблему, звану пластичністю і пов'язану із здібністю адаптації до
                  нових даних. Ці особливості навчання методом змагання відомі під

                  назвою дилеми стабільності-пластичності Гроссберга (1976).
                                                                   33
   28   29   30   31   32   33   34   35   36   37   38