Page 35 - 4524
P. 35

Розмір області сусідства може змінюватись під час пері-
                            оду навчання. Звичайна парадигма повинна починатись з ве-
                            ликої  області  визначення  сусідства  і  зменшуватись  під  час
                            процесу навчання. Оскільки елемент-переможець визначаєть-
                            ся  по  найвищій  відповідності  до  вхідного  зразку,  мережі
                            Коxонена моделюють розподіл входів. Це правило використо-
                            вується в самоорганізованих картах.

                                  Контрольні запитання

                                1  Які  існують підходи до навчання штучних нейронних
                                   мереж?
                                2  В  чому  відмінність  контрольованого навчання  від  не-
                                   контрольованого?
                                3  Поясніть правило навчання Гебба.
                                4  На чому засноване дельта правило?
                                5  В чому суть навчання методом змагання?


                                  5 Архітектури штучних нейронних мереж

                                  5.1 Перцептрон Розенбалата

                                  Оскільки всі штучні нейронні мережі базуються на кон-
                            цепції нейронів, з'єднань та передатних функцій, існує подіб-
                            ність між різними структурами або архітектурами нейронних
                            мереж. Більшість змін походить з різних правил навчання. Ро-
                            зглянемо деякі з найвідоміших штучних нейромереж, які ор-
                            ганізовані в певні категорії застосувань.
                                  Першою  моделлю  нейромереж  вважають  перцептрон
                            Розенбалата. Теорія перцептронів є основою для багатьох ти-
                            пів штучних нейромереж прямого поширення і вони є класи-
                            кою для вивчення.
                                  Одношаровий перцептрон здатний розпізнавати найпро-
                            стіші образи. Окремий нейрон обчислює зважену суму елеме-
                            нтів вхідного сигналу, віднімає значення зсуву і пропускає ре-
                            зультат через жорстку порогову функцію, вихід якої дорівнює
                            +1 чи -1. В залежності від значення вихідного сигналу прий-
                            мається рішення:
                                   +1 - вхідний сигнал належить класу A,

                                                           34
   30   31   32   33   34   35   36   37   38   39   40