Page 15 - 4143
P. 15
(Σ)
Y = XW . ( 2.4)
Таким чином, для розширення обчислювальних можливостей
багатошарових в порівнянні з одношаровими необхідне
використовування нелінійних активаційних функцій.
Продовжуючи розмову про нелінійність, необхідно відзначити,
що вона іноді може вводитися і в синаптичні зв'язки. В більшості
відомих сьогодні для знаходження зваженої суми входів нейрона
використовують формулу (1.1), проте в деяких практичних
застосуваннях корисно ввести інший запис, наприклад:
n 2
.
S = x i w i (1.9)
i 1
або
n
S= x i x ((i ) 1 mod ) n w i . (1.10)
i 1
Питання в тому, щоб розробник чітко розумів, для чого він це
робить, якими цінними властивостями він тим самим додатково
наділяє нейрон, і яких позбавляє. Введення такого роду нелінійності,
взагалі кажучи, збільшує обчислювальну потужність мережі, тобто
дозволяє з меншого числа нейронів з "нелінійними" синапсами
сконструювати , виконуючу роботу звичної з великим числом
стандартних нейронів і складнішою конфігурацією [1].
У мереж, розглянутих дотепер, не було зворотних зв'язків, тобто
з'єднань, що йдуть від виходів деякого шару до входів цього ж шару
або попередніх шарів. Цей спеціальний клас мереж, званих
мережами без зворотних зв'язків або мережами прямого
розповсюдження, представляє інтерес і широко використовується.
Декілька слів необхідно сказати про необхідну потужність
вихідного шару мережі, що виконує остаточну класифікацію
простору станів. Річ у тому, що для розділення безлічі вхідних
образів, наприклад, по двох класах достатньо всього одного виходу.
При цьому кожний логічний рівень - "1" і "0" - позначатиме
окремий клас. На двох виходах можна закодувати вже чотири класи
і т.д. Проте результати роботи мережі, організованої таким чином
недостатньо надійні. Для підвищення достовірності класифікації
бажано ввести надмірність шляхом виділення кожному класу
15