Page 42 - 4713
P. 42
Функція суматора може бути складнішою, наприклад, вибір
мінімуму, максимуму, середнього арифметичного, добутку або
виконувати інший нормалізуючий алгоритм.
Компонента 3. Передатна функція. Результат функції суматора є
зваженою сумою вхідних сигналів, що перетворюється у вихідний
сигнал через алгоритмічний процес відомий як передатна функція. У
передатній функції для визначення виходу нейрона загальна сума
порівнюється з деяким порогом. Якщо сума є більшою за значення
порогу, елемент обробки генерує сигнал, в противному випадку
сигнал не генерується або генерується гальмуючий сигнал.
Компонента 4. Масштабування. Після передатної функції
вихідний сигнал проходить додаткову обробку масштабування, тобто
результат передатної функції множиться на масштабуючий
коефіцієнт і додається зміщення.
Компонента 5. Вихідна функція (змагання). По аналогії з
біологічним нейроном, кожний штучний нейрон має один вихідний
сигнал, який передається до сотень інших нейронів. Переважно, вихід
прямо пропорційний результату передатної функції. В деяких
мережних топологіях результати передатної функції змінюються для
створення змагання між сусідніми нейронами. Нейронам
дозволяється змагатися між собою, блокуючи дії нейронів, що мають
слабий сигнал. Змагання (конкуренція) може відбуватись між
нейронами, які знаходяться на одному або різних прошарках. По-
перше, конкуренція визначає, який штучний нейрон буде активним і
забезпечить вихідний сигнал. По-друге, конкуруючі виходи
допомагають визначити, який нейрон буде брати участь у процесі
навчання.
Компонента 6. Функція похибки та поширюване назад значення.
У більшості мереж, що застосовують контрольоване навчання
обчислюється різниця між спродукованим та бажаним виходом.
Похибка відхилення (біжуча похибка) перетворюється функцією
похибки відповідно заданій мережній архітектурі. В базових
архітектурах похибка відхилення використовується безпосередньо, в
деяких парадигмах використовується квадрат або куб похибки зі
збереженням знаку.
Після проходження всіх прошарків біжуча похибка
поширюється назад до попереднього прошарку і може бути
безпосередньо похибкою або похибкою, масштабованою певним
чином залежно від типу мережі (наприклад похідною від
42