Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ЛекцииТИ.doc
Скачиваний:
14
Добавлен:
14.04.2019
Размер:
920.06 Кб
Скачать

Параграф 1.3: Условная энтропия и взаимная информация

Определенная равенством 1.4 энтропия характеризует информационные свойства одного дискретного источника или ансамбля. Однако в технике связи часто представляют интерес выявления количества информации, содержащейся в одном ансамбле сообщения U с объемом алфавита N относительно другого, в общем случае зависящего от нег ансамбля Z с объемом алфавита M. В качестве U и Z можно, например, рассматривать ансамбли сообщений и сигналов, с помощью которых передают сообщения, или сигналы на входе и выходе каналов связи. Для определения такой информации характеристики введем понятие «условной энтропии» H (U/Z), описывающей среднее количество информации, содержащейся в сообщении ансамбля U, при условии, что сообщение ансамбля известно. Если оба ансамбля имеют независимые элементы, то мера неопределенности H (U/Z) находится усреднением по всем значениям zj средней неопределенности H (u/zj) элементов ансамбля при данном zj, а величина H (u/zj) находится аналогично энтропии H (U) заменой безусловных вероятностей p (uk) появления сообщений uk на условной вероятности P (uk / zj) появления сообщения uk при условном наличии zj.

M M N

H (U/Z) = ∑ p (zj) * H (u/zj) = – ∑ p (zj) * ∑ p (uk/zj) log p (uk/zj) (1.9)

j=1 j=1 k=1

H (u/zj)

По теореме умножения вероятностей имеем:

P (zj) p (uk/zj) = P (uk, zj) (1.10)

где P (uk, zj) – вероятность совместного появления сообщения uk, zj. С учетом 1.10, выражение 1.9 переписываем:

M N

H (U/Z) = ∑∑ p (uk/zj) log p (uk/zj) / p (zj) (1.11)

j=1 k=1

Возможна так же и следующая форма представления выражения 1.9 и 1.11:

M N

H (U/Z) = M {log 1 / p (uk/zj)} = – ∑ ∑ p (uk/zj) log p (uk/zj) (1.11a)

j=1 k=1

где M {} – символ математического ожидания от выражения в скобках.

Условная энтропия удовлетворяет неравенству:

0 ≤ H (U, Z) ≤ H (U) (1.12)

H (U, Z) = 0, когда при реализации ансамбля Z можно точно установить сообщения ансамбля Z (канал без памяти). H (U, Z) = H (U), когда U и Z независимы, и знания реализации Z ничего не говорит о реализации U. В общем случае, H (U, Z) < H (U), и знания реализации Z снижает первоначальную неопределенность U. На основании этого можно ввести информационную характеристику двух ансамблей U и Z, называемой взаимной информацией между U и Z, или количеством информации, содержащемся в Z относительно U, которая определяется как:

I (U, Z) = H (U) – H (U, Z) (1.13)

Взаимная информация измеряется в тех же единицах, что и энтропия (например, в битах). Величина I (U, Z) показывает, сколько в среднем бит информации о реализации ансамбля U дает наблюдение реализации ансамбля Z.

Подставляя 1.4 и 1.11 в 1.13:

N M N

I (U, Z) = – ∑ p (uk) log p (uk) + ∑∑ p (uk, zj) log p (uk, zj) / p (zj)

k=1 j=1 k=1

Отсюда с учетом соотношения p (uk) = ∑ p (uk, zj) получаем:

M N

I (U, Z) = ∑ ∑ p (uk, zj) log [p (uk, zj) / p (zj) * p (uk)] (1.14)

j=1 k=1

Взаимная информация обладает следующими свойствами:

  1. I (U, Z) ≥ 0 (1.15), причем равенство имеет место тогда и только тогда, когда U и Z независимы между собой. Это следует из определения 1.13 и неравенства 1.12.

  2. I (U, Z) = I (Z, U) (1.16), т.е Z содержит столько же информации относительно U, сколько U содержит информации относительно Z. Это свойство вытекает из симметрии выражения 1.14 относительно (uk, zj). Поэтому можно записать H (U, Z) = H (Z) – H (Z, U) (1.17).

  3. I (U, Z) ≤ H (U) (1.18), причем равенство имеет место, когда при реализации Z можно точно восстановить реализацию U (из 1.12 и 1.13).

  4. I (U, Z) ≤ H (Z) (1.19), причем равенство имеет место, когда при реализации U можно точно восстановить реализацию Z (из 1.16 и 1.18).

  5. Полагая в 1.13 Z = U и учитывая, что H (U / U) = 0, получаем I (U, U)=H (U). Это позволяет интерпретировать энтропию источника как его собственную информацию, т.е. информацию, содержащуюся в ансамбле U о самом себе.

Пусть U – ансамбль дискретного сообщения, а Z – ансамбль дискретных сигналов, в которые преобразуются сообщения U. В этом случае, если I (U, Z) = H (U), преобразования U в Z называют обратимыми. При необратимом преобразовании I (U, Z) < H (U) и разность H (U) – I (U, Z) = H (U, Z) называют потерей информации или ненадежностью при преобразовании U в Z. Т.о., информация не теряется только при обратимых преобразованиях. Величина H (U, Z) = H (Z) – I (U, Z) – это энтропия шума преобразователя.