Page 24 - 6865
P. 24

відрізки, рівні ∆х. Позначимо межі і-го відрізку (рисунок 2.1)
                            через αi  і βi. Ймовірність попадання  значень контрольованого
                            параметру  в цей інтервал можна   визначити:
                                                                             βi
                                                p (ai < x  <  bi  )   =   ∫   @ ( x ) dx                       (2.5)
                                                                             αi



















                                     Рисунок 2.1 – Густина ймовірності інформації

                                   Визначивши        ймовірність     попадання       значень
                            вимірюваного  параметру  на  всіх  інтервалах,  згідно  формули
                            Шеннона (2.3), можна отримати оцінку ентропії .

                                              2.2.3 Властивості ентропії

                                   1. Ентропія джерела інформації максимальна, якщо всі
                            повідомлення надходять від цього джерела рівно ймовірно.
                                   2.  Ентропія  змешується,  якщо  є  залежність  між
                            виходами.








                                                         21
   19   20   21   22   23   24   25   26   27   28   29