Page 60 - 4703
P. 60

Існує і інший підхід до проблеми розмірності, який може
           використовуватися як альтернатива або як доповнення до ме-
           тодів  відбору  змінних:  це  пониження  розмірності.  Суть  його
           полягає  в  тому,  що  початкова  сукупність  змінних  перетво-
           риться  в  нову  сукупність,  що  складається  з  меншого  числа
           змінних,  але  що  при  цьому  (як  ми  сподіваємося)  містить  по
           можливості  усю  інформацію,  закладену  в  початкових  даних.
           Як  приклад  розглянемо  дані,  усі  точки  яких  розташовані  на
           деякій площині в тривимірному просторі. Істинна розмірність
           даних рівна двом (оскільки уся інформація насправді містить-
           ся в двовимірному підпросторі). Якщо ми зуміємо виявити цю
           площину,  то  на  вхід  нейронної  мережі  можна  буде  подавати
           вхідні дані меншої розмірності і буде більше шансів на те, що
           така мережа працюватиме правильно.
                Найпоширеніший  метод  пониження  розмірності  -  це
           аналіз  головних  компонент  (див.  також    Факторний  аналіз).
           Метод полягає в наступному: до даних застосовується лінійне
           перетворення, при якому напрямам нових координатних осей
           відповідають  напрями  найбільшого  розкиду  початкових  да-
           них. Як правило, вже перша компонента відбиває велику ча-
           стину  інформації,  що  міститься  в  даних.  Оскільки  аналіз  го-
           ловних компонент (АГК) є лінійним методом, його можна ре-
           алізувати за допомогою лінійної мережі, і в пакеті  ST Neural
           Networks передбачена можливість навчати лінійну мережу для
           виконання  АГК.  Дуже  часто  метод  АГК  виділяє  з  багато-
           вимірних початкових даних зовсім невелике число компонент,
           зберігаючи при цьому структуру інформації.
                Один з недоліків методу головних компонент (АГК) по-
           лягає в тому, що це чисто лінійний метод, і через це він може
           не  враховувати  деякі  важливі  характеристики  структури  да-
           них. У пакеті ST Neural Networks реалізований також варіант
           "нелінійного АГК", заснований на використанні так званої ав-
           тоасоціативної  мережі.  Це  така  нейронна  мережа,  яку  нав-
           чають  видавати  в  якості  виходів  свої  власні  вхідні  дані,  але
           при  цьому  в  її  проміжному  шарі  міститься  менше  нейронів,
           ніж у вхідному і вихідному шарах. Тому, щоб відновити свої
           вхідні  дані,  мережа  повинна  навчитися  представляти  їх  в
           меншій  розмірності.  Мережа  "впихає"  спостереження  у  фор-
           мат проміжного шару і тільки потім видає їх на виході. Після
           навчання автоасоціативної мережі її зовнішній інтерфейс мо-

                                          60
   55   56   57   58   59   60   61   62   63   64   65