Page 89 - 70
P. 89

Теорія інформації є подальшим розвитком теорії ймовірностей сто-
                            совно процесів вимірювання. К.Шеннон писав: “Основна ідея теорії
                            інформації полягає в тому, що з інформацією можна поводитися
                            майже так само, як із такими фізичними величинами, як маса і енер-
                            гія”. Але “майже” не означає “точно так само”. Н.Вінер стверджує:
                            “Інформація є інформація, а не речовина і не енергія”.
                            На основі історичного досвіду визначення інтервалу невизначеності
                            результатів вимірювань слідує, що цей інтервал немає од-
                            нозначного співвідношення з оцінкою СКВ  , тобто оцінка потуж-
                            ності завади не визначає однозначно її дезінформуючий вплив. Для
                            корекції цієї невизначеності необхідно при різних законах розподі-
                            лу приймати різні значення довірчої ймовірності, стараючись тим
                            самим врахувати ще деяку властивість похибки крім її потужності,
                            яка характеризується за допомогою СКВ  .
                            Так при рівномірному законі розподілу похибки інтервал невизна-
                            ченості приймають рівним всій ширині цього розподілу, тобто при-
                            ймають, що довірча ймовірність  Р    1. При нормальному законі
                            розподілу як правило переходять до довірчої ймовірності  Р   0, 95.
                            Аналізуючи дезінформаційний вплив випадкових завад з різними
                            законами розподілу ймовірностей К.Шеннон прийшов до вис-новку,
                            що дезінформація, яка вноситься завадою, визначається не тільки
                            потужністю цієї завади, тобто її СКВ  , але і залежить від виду за-
                            кона розподілу цієї завади.
                                  Формально це положення К.Шеннон сформулював у своїй 16-
                            ій теоремі, яка стверджує, що якщо завада у вірогідному розумінні
                            не залежить від сигналу, то незалежно від закону розподілу і потуж-
                            ності сигналу дезінформаційна дія завади визначається її ентропією
                            (мірою невизначеності) Н(х), яка визначається так:
                                                         
                                                    H( x)       p( x) log  p( x) dx ,      (3.53)
                                                          
                            де  (xp  )  — щільність ймовірності значень вимірюваної величини.
                            Кількість інформації І згідно К.Шеннона визначається як різниця
                            ентропій, тобто
                                                    I   H  (x ) H  ( xx  n ) ,         (3.54)


                              126
   84   85   86   87   88   89   90   91   92   93   94