Page 40 - 169
P. 40

p  – ймовірність S -го стану дискретного давача інформації.
                        i
                                             j

                      Для  дискретного  ергодичного  давача  інформації,  в  якого  кореляційні
               зв’язки  існують  тільки  між  двома  сусідніми  значеннями  послідовності
                x ,  x ,  x ,  n  ентропія визначається виразом:
                 1
                     2
                                                            n         n    x            x    
                              H (  x)       p( x )   H i       p( x )    p  j  x    log   p  j  x  
                                                j
                                                                   i
                                         j                   i 1      j 1    i            i  
               або
                                          n n
                              H(  x)       p(  x ,  x )   log  p x  j  x i  ;                  (3.30)
                                                      j
                                                   i
                                         j 1 1 
                                            i
               де:     p (x  , x  )   – сумісна імовірність появи пари символів  x ,        x .
                           i   j                                                          i   j
                       p x   x     –умовна  імовірність  появи  значення  x   при  умові,  що
                           j   i                                                         j
                      попереднім було значення  x ;
                                                        i
               В  загальному  випадку  ентропія  ергодичних  давачів  інформації  визначається
               виразом:
                                         n        n
                              H(  x)          p( x , x ,,  x ) log  p x i  x   x s ,       (3.31)
                                                                                  j
                                                        i
                                                                   s
                                                            j
                                        i 1  j 1  s 1
               де:
                       p (x i ,x  j , x s ) – імовірність послідовності станів  ji ,...,  s;
                       n  – загальна кількість станів джерела;
                       p x i  x   x s   –  умовна  імовірність  появи  i -го  стану  при  умові,  що
                               j
                                               s ,
               попередніми  були  ( j, )  стани,  при  чому  j -ий  передував  i -му,  а  s –
               найбільш віддалений стан, який має кореляційний зв’язок з i -м.
                      Для     джерел       з   незалежними,        але     нерівноймовірними          станами
               використовується оцінка загальної кількості можливих комбінацій станів:
                                                           n!
                                                    N          ;                                     (3.32)
                                                          n
                                                          S  j
                                                          j
               або в логарифмічному вигляді:
                                                                   n
                                                   log  N   log  n!   S ;                          (3.33)
                                                                      j
                                                                   j
               яка на основі наближення Стірлінга зводиться до виразу:
                                                      log N
                                            H   lim              ( p  ) j  log p (  ) j ,        (3.34)
                                                        n
               що співпадає з визначенням ентропії К.Шенона.
                      На практиці давачі інформації не є настільки статистично складними, щоб
               їх  описувати  багатомірними  розподілами.  Зокрема,  для  повного  опису
               ергодичних  стаціонарних  давачів  достатньо  знати  двомірні  розподіли  і
               відповідно  статистично  середні.  Ентропія  і  швидкість  створення  повідомлень
               такими  джерелами,  за  рахунок  кореляційних  зв’язків  між  різними
   35   36   37   38   39   40   41   42   43   44   45