Page 144 - 4196
P. 144
4.9.2 Алгоритми навчання перцептрону
(детермінований підхід)
Основна модель перцептрону, яка забезпечує відне-
сення об’єкту до одного з двох класів, наведена на рису-
нку 4.6. Розв’язок шукається у вигляді такого вектора ваг
T
W , який забезпечує виконання умови W X 0 для усіх
еталонних об’єктів першого класу і умови W T X 0 для
усіх еталонних об’єктів другого класу. В основу алгори-
тмів може бути покладений або детермінований або
статистичний підходи. Детерміновані алгоритми буду-
ються незалежно від будь-яких припущень про статисти-
чні властивості класів. В статистичних алгоритмах шу-
каються апроксимації розподілів класів, які далі викорис-
товують для побудови байесівського класифікатора.
Розглянемо навчальний алгоритм перцептрону (де-
термінований підхід), який зводиться до простої схеми
ітеративного визначення вектора ваг W .
Припустимо, що задані дві навчальні множини
об’єктів класів і , а wxd 1 x w 2 x w -
3
2
1
1
2
рівняння роздільної поверхні, яка має таку властивість,
що підстановка в xd будь-якого об’єкту x класу ,
1
надасть функції xd додатного значення. Від’ємне зна-
чення функція xd отримає при підстановці об’єкту
класу . Тобто функцію xd можна розглядати, як
2
рішаючу (дискримінантну) функцію оскільки, можна
стверджувати, що невідомий об’єкт x належить класу
, якщо 0xd , і класу , якщо 0xd . Цей метод
2
1
справедливий і для випадку числа класів, більшого 2.
Його нескладно розповсюдити на більш загальний випа-
док нелінійних границь.
Для зручності подання рішаючої функції у вигляді
скалярного добутку
d X W T X
144