Page 39 - 4524
P. 39

до визначених проблем використовують загальні правила, зо-
                            крема:
                                  1. Кількість входів та виходів мережі визначаються кіль-
                            кістю вхідних та вихідних параметрів досліджуваного об'єкту,
                            явища,  процесу,  тощо.  На  відміну  від  зовнішніх  прошарків,
                            число нейронів прихованого прошарку n прих обирається емпі-
                            ричним шляхом. В більшості випадків достатня кількість ней-
                            ронів становить n прих  (n вх + n вих), де n вх, n вих - кількість ней-
                            ронів у вхідному і, відповідно, у вихідному прошарках.
                                  2. Якщо складність у відношенні між отриманими та ба-
                            жаними  даними  на  виході  збільшується,  кількість  нейронів
                            прихованого прошарку повинна також збільшитись.
                                  3.  Якщо процес, що моделюється, може розділятись на
                            багато  етапів,  потрібен  додатковий  прихований  прошарок
                            (прошарки). Якщо процес не розділяється на етапи, тоді дода-
                            ткові  прошарки  можуть  допустити  перезапам'ятовування  і,
                            відповідно, невірне загальне рішення.
                                  Після того, як визначено число прошарків  і число ней-
                            ронів в кожному з них, потрібно знайти значення для синап-
                            тичних ваг і порогів мережі, які спроможні мінімізувати похи-
                            бку спродукованого результату. Саме для цього існують алго-
                            ритми  навчання,  де  відбувається  підгонка  моделі  мережі  до
                            наявних  навчальних  даних.  Похибка  для  конкретної  моделі
                            мережі визначається шляхом проходження через мережу всіх
                            навчальних  прикладів  і  порівняння  спродукованих  вихідних
                            значень з бажаними значеннями. Множина похибок створює
                            функцію похибок, значення якої можна розглядати, як похиб-
                            ку  мережі.  В  якості  функції  похибок  найчастіше  використо-
                            вують суму квадратів похибок.
                                  Для кращого розуміння алгоритму навчання мережі Back
                            Propagation потрібно роз'яснити поняття поверхні станів. Ко-
                            жному  значенню  синаптичних  ваг  і  порогів  мережі  (вільних
                            параметрів моделі кількістю N) відповідає один вимір в бага-
                            товимірному  просторі.  N+1-ий  вимір  відповідає  похибці  ме-
                            режі.  Для  різноманітних  сполучень  ваг  відповідну  похибку
                            мережі  можна  зобразити  точкою  в  N+1-вимірному  просторі,
                            всі  ці  точки  утворюють  деяку  поверхню  -  поверхню  станів.
                            Мета навчання нейромережі полягає в знаходженні на багато-
                            вимірній поверхні найнижчої точки.


                                                           38
   34   35   36   37   38   39   40   41   42   43   44