Page 39 - 4522
P. 39

m
                            ентропія приймача повідомлень       H( B)       p( b log)  p( b )
                                                                                         i
                                                                                i
                                                                           i 1
                                   являє  собою  невизначеність  появи  на  вході  приймача
                            букви після її появи на виході джерела повідомлень.
                                   Якщо  в  каналі  зв’язку  не  відбувається  втрата
                            інформації, то завжди буква a 1 відповідає букві b 1, а 2 – b 2 і т.д.
                            При цьому  H  (  ) A   H (B ) .
                                   Розглянемо властивості безумовної ентропії.
                                    1. Якщо  відомо,  що  подія  точно  відбудеться  (це
                                      еквівалентно  передачі  повідомлення  з  однією
                                      якісною ознакою), то його ентропія рівна нулю.
                                    2. Якщо  відомо,  що  подія  точно  не  відбудеться  (це
                                      еквівалентно відсутності i-ої якісної ознаки), то його
                                      ентропія рівна нулю.
                                    3. Якщо     дослід     являє    собою      послідовність
                                      рівноімовірних  подій  (це  еквівалентно  передачі
                                      повідомлень з рівноімовірними взаємонезалежними
                                      символами), то ентропія є максимальною.
                                    4. Якщо  подія  з  рівною  імовірністю  може  відбутися
                                      або не відбутися, то його ентропія максимальна.
                                    5. Ентропія зі скінченою кількістю результатів завжди
                                      є додатною величиною.
                                    6. Ентропія бінарного відношення володіє властивістю
                                      симетрії:  збільшення  або  зменшення  ймовірності
                                      будь-якого  з  елементів  бінарного  повідомлення  на
                                      одну і ту ж величину приводить до однакової зміни
                                      ентропії.
                                    7. Ентропія складного повідомлення, яке складається з
                                      деяких часткових повідомлень, рівна сумі ентропій
                                      складових повідомлення:  H   (AB )   H  (A )   H (B ).
                                   Умовна  ентропія.  На  практиці  часто  трапляються
                            взаємозалежні  символи  та  повідомлення.  При  передачі
                            змістовних  повідомлень  одні  букви  зустрічаються  частіше,

                                                            38
   34   35   36   37   38   39   40   41   42   43   44