Page 93 - 70
P. 93


                            Враховуючи, що    p( x) dx   , 1  і те, що згідно визначення дисперсії
                                             
                                    2            2
                                  xx    p( x) dx   у , отримаємо, що
                                                   x
                              
                                                            1
                                   H   xx  n    log  x  2 р    2   log  x  2 р   log  e  

                                                  log    р 2  e    log  d ,
                                                        x
                            тобто інтервал невизначеності  d результату вимірювання, знай-
                            дений через ентропію у відповідності з теорією інформації, одно-
                            значно (без яких би то не було припущень про вибір рівня довірчої
                            ймовірності) дорівнює        e  2    4 ,133  , а кількість розрізню-
                                                                     x
                                                    x
                            ваних градацій результату вимірювання N при цьому буде такою:
                                                     x   x     x   x
                                                N    2    1    2    1  .
                                                        d      4 ,133     x
                            Аналогічним чином ентропійний інтервал невизначеності результа-
                            ту вимірювання може бути однозначно знайдений для любого ви-
                            раженого аналітично закону розподілу похибок. Наприклад, при
                            розподілі похибки по трикутному закону Сімпсона

                                  H  xx  n   log   6   e   x  ,     d  6    e    x  4 ,04     x  .
                            Розподіл діапазону  x   x  на окремі розрізнювані градації на ос-
                                                2
                                                     1
                            нові формальних положень теорії інформації у виді функціоналу
                            (3.53) для ентропії представлено на рис. 3.11. Тут діапазон  x   x
                                                                                          1
                                                                                     2
                            розбитий на інтервали довжиною  ,d  які розраховані вказаним вище
                            чином, і відносно центра кожного такого інтервалу, як початку ко-
                            ординат, побудована крива відповідного закону розподілу похибки:
                            рівномірного, трикутного і нормального. Звідси видно, що тільки
                            при рівномірному розподілі похибки границі інтервалів невизначе-
                            ності співпадають з границями розподілу похибок, тобто окремі
                            смуги похибок лише торкаються одна одної. При трикутному і нор-
                            мальному законах розподілу похибок інтервали невизначеності ви-



                                                                                         131
   88   89   90   91   92   93   94   95   96   97   98