Page 58 - 4703
P. 58

режа  вміє  стежити  за  проекціями  ділянок  багатовимірного
           простору  в  простори  малої  розмірності  (наприклад,  якщо  всі
           ваги,  що  виходять  з  деякого  вхідного  елементу,  дорівнюють
           нулю,  то  MLP-мережа  повністю  ігнорує  цю  вхідну  змінну).
           Проте, прокляття розмірності залишається серйозною пробле-
           мою і якість роботи мережі можна значно поліпшити, виклю-
           чивши  непотрібні  вхідні  змінні.  Насправді,  щоб  зменшити
           ефект прокляття розмірності іноді буває доцільно виключити
           навіть  ті  вхідні  змінні,  які  несуть  в  собі  деякою  (невелику)
           інформацію.
                 Внутрішні  залежності  між  змінними.  Було  б  добре,
           якби  кожну  змінну  -  кандидата  на  те,  щоб  служити  входом
           мережі,  можна  було  б  незалежно  оцінити  на  "корисність",  а
           потім відібрати найкорисніші змінні. На жаль, як правило, це
           буває  неможливо  зробити  і  дві  або  більше  взаємозв'язаних
           змінних можуть разом нести істотну інформацію, яка не міс-
           титься  ні  в  якій  їх  підмножині.  Класичним  прикладом  може
           служити  завдання  з  двома  спіралями,  в  якому  точки  даних
           двох  класів  розташовані  вздовж  двох  двовимірних  спіралей,
           що  переплітаються.  Жодна  зі  змінних  окремо  не  несе  ніякій
           корисній інформації (класи виглядатимуть абсолютно перемі-
           шаними),  але  дивлячись  на  обидві  змінні  разом,  класи  легко
           розділити. Таким чином, в загальному випадку змінні не мож-
           на відбирати незалежно.
                 Надмірність змінних. Часто буває так, що одна і та ж
           інформація більшою чи меншою мірою повторюється в різних
           змінних. Наприклад, дані про ріст і вагу людини, як правило,
           несуть в собі схожу інформацію, оскільки вони сильно коре-
           льовані. Може виявитися так, що в якості входів досить взяти
           лише частину з декількох корельованих змінних, і  цей вибір
           може бути довільним. У таких ситуаціях замість усієї множи-
           ни  змінних  краще  взяти  їх  частину  -  цим  ми  уникаємо  про-
           кляття розмірності.
                Отже,  вибір  вхідних  змінних  -  це  виключно  важливий
           етап при побудові нейронної мережі. Перед тим, як безпосере-
           дньо починати працювати з пакетом ST Neural Networks, має
           сенс зробити попередній відбір змінних, використовуючи при
           цьому свої знання в предметній області і стандартні статисти-
           чні  критерії.  Потім, вже засобами пакету  ST  Neural  Networks
           можна  буде  спробувати  різні  комбінації  вхідних  змінних.  У

                                          58
   53   54   55   56   57   58   59   60   61   62   63