Page 24 - 6865
P. 24
відрізки, рівні ∆х. Позначимо межі і-го відрізку (рисунок 2.1)
через αi і βi. Ймовірність попадання значень контрольованого
параметру в цей інтервал можна визначити:
βi
p (ai < x < bi ) = ∫ @ ( x ) dx (2.5)
αi
Рисунок 2.1 – Густина ймовірності інформації
Визначивши ймовірність попадання значень
вимірюваного параметру на всіх інтервалах, згідно формули
Шеннона (2.3), можна отримати оцінку ентропії .
2.2.3 Властивості ентропії
1. Ентропія джерела інформації максимальна, якщо всі
повідомлення надходять від цього джерела рівно ймовірно.
2. Ентропія змешується, якщо є залежність між
виходами.
21