Page 37 - Міністерство освіти і науки України
P. 37
Теорема 2.1. Якщо матриця T (N ) (N ) додатно
визначена, то з урахуванням (2.41)-(2.43), (2.45)-(2.48)
середньо квадратичну оцінку вектора параметрів можна
визначити на підставі рекурентних рівнянь
K y X ;
t t 1 t t t t 1
K t P t 1 X t T 1 X t P t 1 X t T 1 ; (2.49)
X P 2 X T
P t P t 1 t t 1 t .
1 X t P t 1 X t T
Для доведення теореми вихідні масиви (2.46), (2.47)
запишемо у формі
(N ) 1 Y ( N 1 )
(N 0 ; Y ( N) . (2.50)
X (N ) y N
Тоді праву частину першого рівняння (2.48) можна
перетворити до вигляду
T ( N) Y ( N) T ( N 1 ) Y ( N 1 ) X ( N y ) N . (2.51)
T
Користуючись системою рівнянь (2.45), яку на підставі
(2.48) подано у вигляді
T ( N ) ( N ) ( N ) T ( N Y ) ( N ), (2.52)
праву частину виразу (2.51) запишемо так
T ( N Y ) 1 ( N ) 1 X T ( N y ) N T ( N ) 1 T ( N ) 1 ( N ) 1 X T ( N y ) N
T ( N ) T ( N ) X T ( N ) X ( N ) ( N ) 1 X T ( N y ) N
T ( N ) T ( N ) ( N ) 1 X T ( N ) X ( N ) ( N ) 1 X T ( N y ) N .
Підставивши це вираз у праву частину рівняння (2.52),
з урахуванням (2.51) матимемо
T ( N ) ( N ) ( N ) T ( N ) T ( N ) ( N ) 1
X T ( N ) X ( N ) ( N ) 1 X T ( N y ) N
T T . (2.53)
( N ) ( N ) ( N ) 1
X T ( N ) y X ( N ) ( N ) 1
Уведемо позначення N
1
P (N ) T (N ) (N ) . (2.54)
Тоді (2.53) можна перетворити до вигляду
( N ) ( N ) 1 P ( N ) X T ( N ) y N X ( N ) ( N ) 1 , (2.55)