Page 18 - 4703
P. 18

Нейронна  мережа  служить  "прошарком"  між  пре-  і  пост-
           процессуванням,  і  результат  видається  в  потрібному  виді
           (наприклад, в завданні класифікації видається назва вихідного
           класу). Крім того, в пакеті ST Neural Networks користувач мо-
           же  (якщо  побажає)  отримати  прямий  доступ  до  внутрішніх
           параметрів активації мережі.


                1.2 Архітектура нейронних мереж

                1.2.1 Багатошаровий персептрон (MLP)

                Ймовірно, ця архітектура мережі використовується зараз
           найчастіше. Коротко цей тип мережі був описаний вище. Ко-
           жен  елемент  мережі  будує  зважену  суму  своїх  входів  з  по-
           правкою  у  вигляді  доданку  і  потім  пропускає  цю  величину
           активації через передатну функцію, і, таким чином, виходить
           вихідне  значення  цього  елементу.  Елементи  організовані  в
           пошарову  топологію  з  прямою  передачею  сигналу.  Таку  ме-
           режу легко можна інтерпретувати як модель вхід-вихід, в якій
           ваги і порогові значення (зміщення) є вільними параметрами
           моделі.  Така  мережа  може  моделювати  функцію  практично
           будь-якої міри складності, причому число шарів і число еле-
           ментів в кожному шарі визначають складність функції. Визна-
           чення числа проміжних шарів і числа елементів в них є важ-
           ливим питанням при конструюванні MLP-мережі.
                Кількість  вхідних  і  вихідних  елементів  визначається
           умовами завдання. Сумніви можуть виникнути відносно того,
           які вхідні значення можна використати, а які ні - до цього пи-
           тання  ми  повернемося  пізніше.  Зараз  припускатимемо,  що
           вхідні  змінні  вибрані  інтуїтивно  і  що  усі  вони  є  значимими.
           Питання  ж  про  те,  скільки  використати  проміжних  шарів  і
           елементів в них, поки що абсолютно неясне. В якості початко-
           вого наближення можна  узяти один проміжний шар, а  число
           елементів в ньому покласти рівним напівсумі числа вхідних і
           вихідних елементів.

                1.2.2 Навчання багатошарового персептрона



                                          18
   13   14   15   16   17   18   19   20   21   22   23