Page 96 - 70
P. 96

де  k   0... 0, 8.
                            Залежність (3.57) може бути використана для переводу ентропійних
                            значень похибки в довірчі значення. Похибка залежності (3.57) не
                            перевищує 1,0%.
                            Одиниці ентропії і кількості інформації однакові. Однак числові
                            значення ентропії чи кількості інформації залежать від основи лога-
                            рифмів. При теоретичному аналізі, інтегруванні і диференціюванні
                            математичних виразів найбільш зручно використовувати натуральні
                            логарифми і тоді ентропія і кількість інформації отримуються в ні-
                            тах. При аналізі цифрових машин і інших пристроїв, які працюють у
                            двійковому коді, зручно використовувати двійкові логарифми. Тоді
                            ентропія і кількість інформації отримуються у бітах. При аналізі
                            вимірюваних пристроїв, які працюють у більшості випадків у деся-
                            тковому коді, зручно використовувати десяткові логарифми і десят-
                            кові одиниці ентропії і кількості інформації  - діти.
                            Співвідношення між цими одиницями приблизно є таким:
                            1діт=2,3ніт=3,3біт; 1ніт=1,45біт=0,43діт; 1біт=0,69ніт=0,3діт.
                            Кількість інформації в бітах, дітах чи нітах не залежить від одиниць
                               і  x , але вони повинні підставлятися у відповідні вирази для ент-
                            ропії незалежно в яких, але обов’язково в одних і тих же одиницях.
                            Дійсно,

                             I   H( x)   H )(    log( x   x )   log 2 )(    log  x(  2    x )  2    / ,
                                                     2
                                                                                  1
                                                         1
                            де  x  і    повинні бути в одних і тих же одиницях. У вираз для
                            щільності розподілу  (p  )  чи її графік одиниці    входять по двох
                            осях, так як масштаб по осі абсцис має одиницю  x , а по осі ординат
                                                                         
                            – 1/х. Тому числове значення ентропії  H( )       p( x) log  p( x) dx
                                                                          
                            або у простому випадку     logH  ( 2  )   залежить від одиниць
                              , які співпадають з одиницями  x . Ентропійне значення похибки
                                    H  ( )
                                0 ,5    автоматично отримується в тих же одиницях, в яких
                              e
                            була відкладена похибка по осі    графіку щільності розподілу:
                                                        H ( )       log( 2 )
                            згідно залежності    50,  a     0,   5 a    50,   2     .
                                               e
                              134
   91   92   93   94   95   96   97   98   99   100   101