Page 96 - 70
P. 96
де k 0... 0, 8.
Залежність (3.57) може бути використана для переводу ентропійних
значень похибки в довірчі значення. Похибка залежності (3.57) не
перевищує 1,0%.
Одиниці ентропії і кількості інформації однакові. Однак числові
значення ентропії чи кількості інформації залежать від основи лога-
рифмів. При теоретичному аналізі, інтегруванні і диференціюванні
математичних виразів найбільш зручно використовувати натуральні
логарифми і тоді ентропія і кількість інформації отримуються в ні-
тах. При аналізі цифрових машин і інших пристроїв, які працюють у
двійковому коді, зручно використовувати двійкові логарифми. Тоді
ентропія і кількість інформації отримуються у бітах. При аналізі
вимірюваних пристроїв, які працюють у більшості випадків у деся-
тковому коді, зручно використовувати десяткові логарифми і десят-
кові одиниці ентропії і кількості інформації - діти.
Співвідношення між цими одиницями приблизно є таким:
1діт=2,3ніт=3,3біт; 1ніт=1,45біт=0,43діт; 1біт=0,69ніт=0,3діт.
Кількість інформації в бітах, дітах чи нітах не залежить від одиниць
і x , але вони повинні підставлятися у відповідні вирази для ент-
ропії незалежно в яких, але обов’язково в одних і тих же одиницях.
Дійсно,
I H( x) H )( log( x x ) log 2 )( log x( 2 x ) 2 / ,
2
1
1
де x і повинні бути в одних і тих же одиницях. У вираз для
щільності розподілу (p ) чи її графік одиниці входять по двох
осях, так як масштаб по осі абсцис має одиницю x , а по осі ординат
– 1/х. Тому числове значення ентропії H( ) p( x) log p( x) dx
або у простому випадку logH ( 2 ) залежить від одиниць
, які співпадають з одиницями x . Ентропійне значення похибки
H ( )
0 ,5 автоматично отримується в тих же одиницях, в яких
e
була відкладена похибка по осі графіку щільності розподілу:
H ( ) log( 2 )
згідно залежності 50, a 0, 5 a 50, 2 .
e
134