Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ЛекцииТИ.doc
Скачиваний:
14
Добавлен:
14.04.2019
Размер:
920.06 Кб
Скачать

Параграф 1.2: Свойство энтропии

  1. Энтропия любого дискретного ансамбля неотрицательна: H (U) ≥ 0 (1.5). Равенство 0 возможно лишь в том случае, когда источник генерирует одно единственное сообщение с вероятностью р = 1. Неотрицательность следует из того, что количество информации в каждом из возможных сообщений источника с 1.2 неотрицательно.

  2. Пусть N – объем алфавита дискретного источника, тогда H (U) ≤ log N (1.6), причем равенство имеет место лишь в том случае, когда все сообщения ансамбля равновероятны. Для доказательства 1.6 рассмотрим разность H (U) – log N. Если сообщение uk источника генерируется с различными вероятностями p (uk), то в соотношении 1.4 можно написать:

N N N

H (U) – log N=∑ p (uk) log 1 / p (uk) – log N=∑ p (uk) log 1 / p (uk) – log N * ∑ p (uk) =

N k=1 N k=1 N k=1

∑ p (uk) (log 1 / p (uk) – log N) = ∑ p (uk) log 1 / N p (uk) = log e ∑ p (uk) ln 1 / N p (uk).

k=1 k=1 k=1

Воспользуемся известным соотношением: ln x ≤ 1 (1.7), при x >0.

Причем log x = x – 1 при х – 1. В нашем случае, x = 1 / N p (uk).

Следовательно, N

H (U) – log N ≤ log e ∑ p (uk) [1 / N p (uk) – 1]

k =1 N N

H (U) – log N ≤ log e [ ∑ 1 / N – ∑ p (uk)]

k =1 k =1

H (U) – log N ≤ N*1/N log e – 1

H (U) – log N ≤ 1*log e – 1

H (U) – log N ≤ 0

Следовательно, H (U) ≤ log N, ч.т.д.

При этом, в соответствии 1.7 H (U) – log N = 0 при 1 / N p (uk) = 1 для всех uk, т.е. когда p (uk) = 1 / N при любом k. Максимально возможное значение энтропии дискретного источника с объемом алфавита N равно log N и достигается в том случае, когда все его сообщения равновероятны.

  1. Энтропия объединения нескольких статистически независимых источников сообщений равна сумме энтропий исходных источников (свойство аддитивности). С целью упрощения рассуждений ограничимся рассмотрением объединения, включающего 2 источника сообщений U и V с объемом алфавита N и M соответственно. Под объединением двух источников U и V понимают обобщенный источник сообщений UV, характеризующийся совместной вероятностью p (ui, vj) всех возможных комбинаций состояния ui источника U и vj источника V. В соответствии с этим определением:

N M

H (UV) = M {I (ui, vj) } = ∑ ∑ p (ui, vj) * log p (ui, vj) (1.8a)

i=1 j=1

В случае статической независимости источника U и V имеем p (ui, vj) = P (ui)*P (vj). Тогда

N M N M M

H (UV) = – ∑ ∑ p (ui, vj) * log p (ui)*p(vj) = – ∑ p (ui) log p (ui) * ∑ p (vj) – ∑ p (vj)

i=1 j=1 i=1 j=1 j=1

N

log p (vj) * ∑ p (vj) = H (U) + H (V) (1.8), ч.т.д.

i=1