Page 93 - 70
P. 93
Враховуючи, що p( x) dx , 1 і те, що згідно визначення дисперсії
2 2
xx p( x) dx у , отримаємо, що
x
1
H xx n log x 2 р 2 log x 2 р log e
log р 2 e log d ,
x
тобто інтервал невизначеності d результату вимірювання, знай-
дений через ентропію у відповідності з теорією інформації, одно-
значно (без яких би то не було припущень про вибір рівня довірчої
ймовірності) дорівнює e 2 4 ,133 , а кількість розрізню-
x
x
ваних градацій результату вимірювання N при цьому буде такою:
x x x x
N 2 1 2 1 .
d 4 ,133 x
Аналогічним чином ентропійний інтервал невизначеності результа-
ту вимірювання може бути однозначно знайдений для любого ви-
раженого аналітично закону розподілу похибок. Наприклад, при
розподілі похибки по трикутному закону Сімпсона
H xx n log 6 e x , d 6 e x 4 ,04 x .
Розподіл діапазону x x на окремі розрізнювані градації на ос-
2
1
нові формальних положень теорії інформації у виді функціоналу
(3.53) для ентропії представлено на рис. 3.11. Тут діапазон x x
1
2
розбитий на інтервали довжиною ,d які розраховані вказаним вище
чином, і відносно центра кожного такого інтервалу, як початку ко-
ординат, побудована крива відповідного закону розподілу похибки:
рівномірного, трикутного і нормального. Звідси видно, що тільки
при рівномірному розподілі похибки границі інтервалів невизначе-
ності співпадають з границями розподілу похибок, тобто окремі
смуги похибок лише торкаються одна одної. При трикутному і нор-
мальному законах розподілу похибок інтервали невизначеності ви-
131