2.7.1 Основні поняття теорії інформації

 

                Теорія інформації – це наука яка вивчає кількісні закономірності, пов’язані з отриманням, передачею, обробкою та збереженням інформації. Ці властивості притаманні ІС, в якій здійснюється обмін інформацією між різними ланками системи. Передана інформація повинна бути певним чином «закодованою»- переведена на мову спеціальних символів та сигналів.

                Одним із завдань теорії інформації є знаходження найбільш оптимальних методів кодування, які дозволяють передати задану інформацію за допомогою мінімальної кількості символів. Це завдання вирішується як за відсутності так і за наявності перешкод в каналі зв’язку. Другою задачею теорії інформації є знаходження перепускної властивості каналу зв’язку для передачі інформації без затримок та перешкод.

                Як об’єкт, про який передається інформація, будемо брати систему X, яка випадковим чином може знаходитися в тому чи іншому стані. Для цієї системи  маємо певну ступінь невизначеності, яка залежить від кількості її можливих станів та ймовірних станів.

                Як невизначена система застосовується спеціальна характеристика – ентропія Н(Х), яка обчислюється за формулою

 

,

 

де  М- математичне сподівання;

- ймовірність появи події .

 

Залежно від основи логарифма а маємо різні одиниці вимірювання ентропії (а=2- в бітах; а=10- в дитах; а=е – в натах). Перехід від однієї основи логарифму до іншої здійснюється за допомогою формули

 

 .    Наприклад:

                Основні властивості ентропії:

Вона дорівнює нулю, якщо одне з станів системи достовірне, а інші – недостовірні.

При заданій кількості станів вона набуває максимального значення за умови рівноймовірності цих станів  ().

Якщо декілька незалежних систем об’єднуються в одну, то їх ентропії додаються.

 

На практиці виникає потреба в знаходженні ентропії складної системи, об’єднавши дві чи більше простих систем. Під об’єднанням двох систем  Х,У розуміється складна система (Х,У), стан якої () подає усі можливі комбінації станів систем Х,У. Знайдемо ентропію складної системи:

 

 

Якщо системи Х та У незалежні, то  .

Для залежних систем маємо умовну ентропію системи У за умови, що система Х знаходиться в стані :

 

 

та середню або повну ентропію  системи У відносно Х:

 

               

Величина характеризує ступінь невизначеності системи У, яка залишилася після того, як стан системи Х повністю визначився.

 

Теорема. Якщо дві системи Х та У об’єднуються в одну, то ентропія об’єднаної системи дорівнює ентропії однієї з іі складових частин та додатку умовної ентропії другої частини відносно першої: