Page 80 - 4524
P. 80
можуть спотворити результат навчання. У таких випадках
найкраще постаратися знайти і виявити ці викиди (вилучити
відповідні приклади або перетворити викиди в пропущені
значення). Якщо викиди виявити важко, то можна скористати-
ся можливостями зробити процес навчання стійким до вики-
дів, однак таке стійке до викидів навчання, як правило, менш
ефективно, ніж стандартне.
Згладжування даних. Позитивний ефект надається при
використанні додаткової нейромережі, що функціонує в ре-
жимі згладжування вхідних даних навчальної множини. В ре-
жимі навчання додаткової мережі кожна реалізація навчальної
множини набуває вигляду: вектор вхідних значень® вектор
вхідних значень (рис. 6.1).
Рисунок 6.1 - Приклад застосування нейромережі для згла-
джування даних
В режимі функціонування на входи подаються вхідні
значення навчальної множини, на виході отримуємо згладжені
значення, без наявних викидів, які в подальшому можна вико-
ристовувати для опрацювання. Можна дати наступне пояс-
нення ефекту згладжування даних. Залежність вихідних зна-
чень нейромережі від вхідних може бути представлена сумар-
ним степеневим поліномом, так як передатні функції нейронів
прихованого шару - поліноміальні. При незначному числі ней-
ронів прихованого шару і невисоких степенях поліномів су-
марний поліном буде невисокого степеня, що не дає можливо-
сті відтворювати викиди, тобто приводить до згладжуваного
відтворення.
Питання про те, скільки прикладів потрібно мати для на-
вчання мережі, часто виявляється непростим. Відомо ряд пра-
вил, що погоджують число необхідних прикладів з розмірами
мережі (найпростіше з них говорить, що число прикладів по-
79