Page 29 - 6831
P. 29

Рис. 1.

                   Величина     у    у   у називається  залишковим  відхиленям.Серед  даного  виду
                                        і
                                   і
                                              х
                                               і

            рівнянь   =  ( ;   ;   ; . . . )  за МНК вибирають рівняння з такими значеннями параметрів



            а 0; а 1; …, які забезпечують мінімальну суму квадратів залишкових відхилень:

                                         С =   у −  (х ; а ; а ; . . . )  =    .
                                                   і      і

                   За  необхідною  умовою  мінімуму  перші  частинні  похідні  суми  С  за  параметрами
            шуканого рівняння дорівнюють нулю:
                                  C        n                             x (  a ;  a ;  ; ...)
                                         2  у     x (   a ;  a ;  ;  ...)   i  0  i    , 0
                                  a             i       i  0   1               a 
                                    0      i 1                                  0
                                  C        n                             x (  a ;  a ;  ; ...)
                                         2  у     x (   i  a ;  0  a ;  1 ;  ...)   i  0  1    , 0
                                                i
                                  a                                            a 
                                    1      i 1                                  1
                                                               
                   Розв’язавши дану систему рівнянь, отримаємо оптимальні значення точкових оцінок
            параметрів рівняння регресії.
                   Розглянемо основні види криволінійних регресій.
                   1.  Поліномна  функція  регресії.  Оцінку  поліномного  рівняння  регресії  запишемо  у
            вигляді:



                                             =   +     +     +. . . +





                   Обмежимось випадком квадратичної  (m = 2) регресії


                                                   =   +     +     .




                   Точкові оцінки параметрів рівняння регресії а0; а1; а2 визначають мінімізуючи суму
            квадратів залишкових відхилень:


                                            С =   у − а − а х − а х   ,
                                                      і           і      і

                   тобто, розв’язуючи таку систему рівнянь:

                                       а   +       +       =     ,








                                             +       +       =   х у ,





                                                                               і

                                                                                 і




                                       а   х + а   х + а   х =   х у .



                                              і
                                                                     і
                                                                              і
                                                          і
                                                                                і

                   Точкові  оцінки  параметрів  рівняння  регресії  як  розв’язок  даної  системи  рівнянь
            можна записати у вигляді:







                                          ух (х − х̄ ) − ух(х − х х̄) − ӯ(х    − х х̄
                                    а =                                              ;









                                         х (х − х̄ ) − х (х − х х̄) − х (х    − х х̄)


                                                   ух − ӯ х̄ − а (х − х х̄)

                                              а =                         ;
                                               і
                                                           х − х̄


                                                  а = ӯ − а х̄ − а х .



                   Якість  моделі  оцінюють  за  величиною  залишкової  дисперсії,  яка  для  квадратичної
            регресії обчислюється за формулою:
                                                                                                           28
   24   25   26   27   28   29   30   31   32   33   34