Page 60 - 4703
P. 60
Існує і інший підхід до проблеми розмірності, який може
використовуватися як альтернатива або як доповнення до ме-
тодів відбору змінних: це пониження розмірності. Суть його
полягає в тому, що початкова сукупність змінних перетво-
риться в нову сукупність, що складається з меншого числа
змінних, але що при цьому (як ми сподіваємося) містить по
можливості усю інформацію, закладену в початкових даних.
Як приклад розглянемо дані, усі точки яких розташовані на
деякій площині в тривимірному просторі. Істинна розмірність
даних рівна двом (оскільки уся інформація насправді містить-
ся в двовимірному підпросторі). Якщо ми зуміємо виявити цю
площину, то на вхід нейронної мережі можна буде подавати
вхідні дані меншої розмірності і буде більше шансів на те, що
така мережа працюватиме правильно.
Найпоширеніший метод пониження розмірності - це
аналіз головних компонент (див. також Факторний аналіз).
Метод полягає в наступному: до даних застосовується лінійне
перетворення, при якому напрямам нових координатних осей
відповідають напрями найбільшого розкиду початкових да-
них. Як правило, вже перша компонента відбиває велику ча-
стину інформації, що міститься в даних. Оскільки аналіз го-
ловних компонент (АГК) є лінійним методом, його можна ре-
алізувати за допомогою лінійної мережі, і в пакеті ST Neural
Networks передбачена можливість навчати лінійну мережу для
виконання АГК. Дуже часто метод АГК виділяє з багато-
вимірних початкових даних зовсім невелике число компонент,
зберігаючи при цьому структуру інформації.
Один з недоліків методу головних компонент (АГК) по-
лягає в тому, що це чисто лінійний метод, і через це він може
не враховувати деякі важливі характеристики структури да-
них. У пакеті ST Neural Networks реалізований також варіант
"нелінійного АГК", заснований на використанні так званої ав-
тоасоціативної мережі. Це така нейронна мережа, яку нав-
чають видавати в якості виходів свої власні вхідні дані, але
при цьому в її проміжному шарі міститься менше нейронів,
ніж у вхідному і вихідному шарах. Тому, щоб відновити свої
вхідні дані, мережа повинна навчитися представляти їх в
меншій розмірності. Мережа "впихає" спостереження у фор-
мат проміжного шару і тільки потім видає їх на виході. Після
навчання автоасоціативної мережі її зовнішній інтерфейс мо-
60