Page 11 - 4524
P. 11

ду  за  допомогою  двошарової  нейронної  мережі  із  прямими
                            повними зв'язками з фіксованою кількістю нейронів з заздале-
                            гідь відомими обмеженими функціями активації. Дж. Цибенко
                            й  К. Хорник, використовуючи теорему Хана-Банаха, довели,
                            що кінцева лінійна комбінація фіксованих одновимірних фун-
                            кцій  може  однозначно  апроксимувати  будь-яку  неперервну
                            функцію п дійсних змінних на заданому гіперкубі при досить
                            м'яких припущеннях щодо функцій одного змінного.

                                  Асоціативна пам'ять
                                  Існують  архітектури  ШНМ,  які  запам'ятовують  образи,
                            що надходять на них, з чимось їх асоціюючи, а при пред'яв-
                            ленні деякого «асоціативного» образу витягують їх з пам'яті.
                            Ця властивість дозволяє організовувати пошук інформації не
                            за адресою, а за її змістом. Навіть якщо пропонована асоціа-
                            ція, що відновлюється, буде спотворена перешкодами, мережа
                            може видати правильний результат. Залежно від того, чи збі-
                            гається шуканий образ зі збереженим у пам'яті, чи ні, розріз-
                            нюють авто- і гетероасоціативну пам'ять.
                                  Дослідженню асоціативної пам'яті присвячена моногра-
                            фія.
                                  Стиснення даних
                                  Деякі типи ШНМ мають властивості, що дозволяють ви-
                            користовувати ці мережі для стиснення даних, наприклад пе-
                            ред їхньою передачею, зменшуючи тим самим кількість пере-
                            даних бітів інформації. Подібні завдання виникають і в клас-
                            терному аналізі, коли різні, схожі за певними ознаками образи
                            об'єднуються в деякі групи або кластери, тобто здійснюється
                            перехід  від  вихідного  n-вимірного  простору  образів  до  m-
                            вимірного простору  кластерів, де  m <  n.  Подальша робота в
                            просторі  меншої  розмірності  призводить  до  економії  обчис-
                            лювальних ресурсів і зменшення обсягу необхідної пам'яті.
                                  Розпізнавання та класифікація
                                  Розпізнавання образів (зображень, зокрема текстів, дру-
                            кованих  і рукописних, звуку, мови тощо) є тією галуззю, де
                            найбільш  яскраво  виявляються  переваги  ШНМ.  Вирішення
                            багатьох  задач  розпізнавання  образів  ускладнено  внаслідок
                            їхньої високої розмірності. Як ми вже зазначали раніше, вико-
                            ристання  ШНМ  шляхом  стиснення  даних  дозволяє  знизити

                                                           10
   6   7   8   9   10   11   12   13   14   15   16