Page 11 - 4524
P. 11
ду за допомогою двошарової нейронної мережі із прямими
повними зв'язками з фіксованою кількістю нейронів з заздале-
гідь відомими обмеженими функціями активації. Дж. Цибенко
й К. Хорник, використовуючи теорему Хана-Банаха, довели,
що кінцева лінійна комбінація фіксованих одновимірних фун-
кцій може однозначно апроксимувати будь-яку неперервну
функцію п дійсних змінних на заданому гіперкубі при досить
м'яких припущеннях щодо функцій одного змінного.
Асоціативна пам'ять
Існують архітектури ШНМ, які запам'ятовують образи,
що надходять на них, з чимось їх асоціюючи, а при пред'яв-
ленні деякого «асоціативного» образу витягують їх з пам'яті.
Ця властивість дозволяє організовувати пошук інформації не
за адресою, а за її змістом. Навіть якщо пропонована асоціа-
ція, що відновлюється, буде спотворена перешкодами, мережа
може видати правильний результат. Залежно від того, чи збі-
гається шуканий образ зі збереженим у пам'яті, чи ні, розріз-
нюють авто- і гетероасоціативну пам'ять.
Дослідженню асоціативної пам'яті присвячена моногра-
фія.
Стиснення даних
Деякі типи ШНМ мають властивості, що дозволяють ви-
користовувати ці мережі для стиснення даних, наприклад пе-
ред їхньою передачею, зменшуючи тим самим кількість пере-
даних бітів інформації. Подібні завдання виникають і в клас-
терному аналізі, коли різні, схожі за певними ознаками образи
об'єднуються в деякі групи або кластери, тобто здійснюється
перехід від вихідного n-вимірного простору образів до m-
вимірного простору кластерів, де m < n. Подальша робота в
просторі меншої розмірності призводить до економії обчис-
лювальних ресурсів і зменшення обсягу необхідної пам'яті.
Розпізнавання та класифікація
Розпізнавання образів (зображень, зокрема текстів, дру-
кованих і рукописних, звуку, мови тощо) є тією галуззю, де
найбільш яскраво виявляються переваги ШНМ. Вирішення
багатьох задач розпізнавання образів ускладнено внаслідок
їхньої високої розмірності. Як ми вже зазначали раніше, вико-
ристання ШНМ шляхом стиснення даних дозволяє знизити
10