Page 102 - 4135
P. 102

де і = 0, ..., N.
                                  У процесі досліду параметри Х j знаходяться під контро-
                            лем, тобто вони є невипадковими величинами. Параметри а 0,
                            а 1 , ..., а N є невідомими в рівнянні (3.10).
                                                                                          €
                                  Нехай  маємо  N  спостережень  вихідного  параметру  Y   і
                            відповідних йому значень X ij, i = 1, ..., N; j = 1, ..., N (дані дис-
                            петчерської інформації). У цьому випадку вихідний параметр
                            запишемо у виглядi:

                                               €
                                                          Y   € a   € a X   ...  € a   X   .                      (3.11)
                                                   0  1   1     n   n   y

                                  Для і = 1, 2, ..., N запишемо рівняння (3.11) у матричному
                            вигляді:
                                              Y €  X     X    ...  X   a    
                                               1     10   11       1n   0    1
                                              Y €  X     X    ...  X   a    
                                               2     20   21       2n   1    2
                                                                        
                                              ...   ...  ...  ...  ...  ...  ...
                                              Y € N  X  N  0  X N 1  ... X  Nn  a n   N

                               або
                                                        Y = XA + E,

                            де X 10 = X 20= … = X N0 = 1.
                                  Матриця Х розмірності N  (N + 1) називається регреси-
                            вною матрицею. Оцінки невідомих параметрів а 0, а j шукають-
                            ся із використанням методу найменших квадратів. Суть цього
                                                                              N
                                                                                2
                            методу  заключається  в  мінімізації  величини        по  відно-
                                                                                i
                                                                             i 1
                            шенню  до  вектора  параметрів  A{a 0,  a 1,  ...,  a N},  тобто
                            розв’язується рівняння вигляду:

                                                 т           €  т       €
                                                      min{E   E   (Y   X A  ) (Y    X A  )} ,                  (3.12)

                            де Т – знак транспонування матриці.
                                  Умова мінімуму визначається рішенням рівняння (3.12).
                            В результаті рішення одержимо:


                                                            99
   97   98   99   100   101   102   103   104   105   106   107