Page 51 - 4703
P. 51
1.4 Рішення завдань регресії в пакеті ST Neural
Networks
У завданнях регресії метою є оцінка значення числової
(що приймає безперервний діапазон значень) вихідної змінної
по значеннях вхідних змінних. Завдання регресії в пакеті ST
Neural Networks можна вирішувати за допомогою мереж
наступних типів: багатошаровий персептрон, радіальна базис-
на функція, узагальнено-регресійна мережа і лінійна мережа.
При цьому вихідні дані повинні мати стандартний числовий
(не номінальний) тип.
Особливу важливість для регресії мають масштабування
(шкалування) вихідних значень і ефекти екстраполяції.
Нейронні мережі найчастіше використовуваної архітек-
тури видають вихідні значення в деякому певному діапазоні
(наприклад, на відрізку [0,1] у разі логістичної функції акти-
вації). Для завдань класифікації це не створює труднощів.
Проте для завдань регресії абсолютно очевидно, що тут є про-
блема, і деякі її деталі виявляються дуже тонкими. Зараз ми
обговоримо питання, що виникають тут.
Спершу застосуємо алгоритм масштабування, щоб вихід
мережі мав "прийнятний" діапазон. Простою з масштабуючих
функцій пакету ST Neural Networks є мінімаксна функція: вона
знаходить мінімальне і максимальне значення змінної за нав-
чальною множиною і виконує лінійне перетворення (із за-
стосуванням коефіцієнта масштабу і зміщення), так щоб зна-
чення лежали в потрібному діапазоні (як правило, на відрізку
[0.0,1.0]). Якщо ці дії застосовуються до числової (безперерв-
ної) вихідної змінної, то є гарантія, що усі навчальні значення
після перетворення потраплять в область можливих вихідних
значень мережі, і отже мережа може бути навчена. Крім того,
ми знаємо, що виходи мережі повинні знаходитися в певних
межах. Цю обставину можна вважати гідністю або недоліком -
тут ми приходимо до питань екстраполяції.
Подивимося на ри-
сунок. Ми прагнемо
оцінити значення Y за
значенням X. Необхідно
апроксимувати криву, що
проходить через задані
51