Page 169 - 4496
P. 169

4.4 Ефективне кодування

                                  4.4.1 Статистична надмірність

                                  Різні   знаки   реальних     повідомлень     мають    різні
                            імовірності свого використання в цих повідомленнях.           Як
                            правило, ці імовірності є відомими (наприклад, коли відома
                            мова    повідомлення).     Знання    того,   які   саме    знаки
                            найімовірніше чекати від джерела, а які - ні, називається
                            наявністю апріорної інформації про повідомлення.
                                  Наявність апріорної інформації приводить до зменшення
                            середньої невизначеності на знак, отримуваний від джерела.
                            Отже зменшується і кількість інформації, що переноситься
                            цим знаком. Вираженням цього явища є міра невизначеності
                            за Шенноном.
                                  Наслідок 1. Якби знаки алфавіту отримувались від
                            джерела повідомлень з рівною імовірність, то те ж саме
                            інформаційне     навантаження     на   знак    можна    було    б
                            забезпечити, використовуючи алфавіт меншого обсягу. Це
                            явище      називається     надмірністю     алфавіту     джерела
                            повідомлень або, просто, надмірністю джерела повідомлень.
                                  Наприклад, для алфавіту із трьох знаків з імовірностями
                            p 1 = p 2 = 0.1135, p 3 = 0.773 кількість інформації на знак
                            становить 1 біт. Ту ж саму кількість інформації на знак можна
                            одержати для алфавіту із двох знаків при рівноімовірному їх
                            використанні.
                                  Мірою надмірності джерела повідомлень є величина

                                         H max  -  H  ,
                                       =
                                   D 1
                                           H max
                            яка показує, наскільки ефективно використовуються знаки
                            джерела, де H і H max - ентропія і макимально можлива
                            ентропія даного джерела. Якщо знаки джерела переносять
                            максимально      можливу     кількість   інформації,   то   його
                            надмірність рівна нулю.
                                  Наслідок 2. Якбі всі знаки у повідомленні мали рівну
                            імовірність, то ту ж саму кількість інформації всього
                            повідомлення можна було б передати меншою кількістю
                            знаків. Це явище називається надмірністю кількості знаків у
                            повідомленнні або, просто, надмірністю повідомлення.
                                                           166
   164   165   166   167   168   169   170   171   172   173   174