Page 41 - 169
P. 41
послідовностями символів і нерівномірності розподілу імовірності символів, є
меншими в порівнянні з оцінкою інформаційної міри Хартлі (3.24).
Чисельний розрахунок ентропії дискретного джерела інформації з
нерівноймовірними корельованими станами можна здійснити за допомогою
автоковаріаційної функції (3.5) згідно наступного виразу:
1
j
H x , x log 2 e log D K ( j) D K (3.35)
i i j 2 2 x xx x xx
2
Графіки ентропії xH x , та оцінки ентропії H (x , x ) для давача
i i j i i j
інформації з кореляційною функцією:
R j Ae ( j t ) cos j t ,
xx
де: – коефіцієнт згасання;
t – крок дискретизації;
A – амплітуда випадкового процесу;
– колова частота.
подано на рис.3.6.
2
2
D – R (j)
o
x xx
j
а)
H(x i, x i+j)
H(x i, x i+j)
j
б)
2
а) Графік функції D R 2 ( ) j , б) графіки ентропії H xx x , x i j , оцінки ентропії
i
x xx
H (x ,x ).
xx i i j
Рисунок 3.6
Простіше, порівняно з структурною функцією, обчислюється модульна
функція автокореляції G j , визначення ентропії здійснюється згідно виразу:
xx