- •Введение
- •1 Раздел: Количественные информационные характеристики дискретных источников сообщений и каналов Параграф 1.1: Количество информации в дискретном сообщении. Энтропия.
- •Параграф 1.2: Свойство энтропии
- •Параграф 1.3: Условная энтропия и взаимная информация
- •Параграф 1.4: Дискретные источники сообщений с памятью. Избыточность дискретного источника сообщения.
- •Параграф 1.5: Производительность источника дискретных сообщений. Скорость передачи информации.
- •Параграф 1.6: Пропускная способность дискретного канала
- •2 Раздел:
- •Параграф 2.1: Задача согласования дискретного источника с дискретным каналом без шума. Эффективное (статистическое) кодирование.
- •Параграф 2.2: Теорема Шеннона для канала без шума
- •Параграф 2.3. Второй способ доказательства прямой теоремы Шеннона для канала без шума. Метод Фано. Оптимальные коды
- •Параграф 2.4. Задача согласования дискретного источника с дискретным каналом с шумом.
- •Параграф 2.5. Теорема Шеннона для дискретного канала с шумом
- •Параграф 2.6. Методика построения помехоустойчивых кодов. Информационный предел избыточности
- •Подпараграф 3.1.2. Аим - сигнал и его спектр
- •3.1.4. Теорема Котельникова
- •3.2. Оценка ошибок дискретизации и квантования
- •3.2.1. Оценка ошибок дискретизации.
- •3.2.1.1. Оценка погрешности дискретизации обусловленной неограниченностью спектра реального сигнала.
- •3.2.1.2. Оценка погрешности дискретизации, обусловленной неидеальностью интерполирующего фильтра.
- •3.2.1.3. Оценка погрешности дискретизации, обусловленной конечной длительностью отсчетных импульсов.
- •3.2.2. Оценка ошибок квантования
- •3.3. Информация в непрерывных сообщениях
- •3.5. Пропускная способность непрерывного канала. Теорема Шеннона
Параграф 1.3: Условная энтропия и взаимная информация
Определенная равенством 1.4 энтропия характеризует информационные свойства одного дискретного источника или ансамбля. Однако в технике связи часто представляют интерес выявления количества информации, содержащейся в одном ансамбле сообщения U с объемом алфавита N относительно другого, в общем случае зависящего от нег ансамбля Z с объемом алфавита M. В качестве U и Z можно, например, рассматривать ансамбли сообщений и сигналов, с помощью которых передают сообщения, или сигналы на входе и выходе каналов связи. Для определения такой информации характеристики введем понятие «условной энтропии» H (U/Z), описывающей среднее количество информации, содержащейся в сообщении ансамбля U, при условии, что сообщение ансамбля известно. Если оба ансамбля имеют независимые элементы, то мера неопределенности H (U/Z) находится усреднением по всем значениям zj средней неопределенности H (u/zj) элементов ансамбля при данном zj, а величина H (u/zj) находится аналогично энтропии H (U) заменой безусловных вероятностей p (uk) появления сообщений uk на условной вероятности P (uk / zj) появления сообщения uk при условном наличии zj.
M M N
H (U/Z) = ∑ p (zj) * H (u/zj) = – ∑ p (zj) * ∑ p (uk/zj) log p (uk/zj) (1.9)
j=1 j=1 k=1
H (u/zj)
По теореме умножения вероятностей имеем:
P (zj) p (uk/zj) = P (uk, zj) (1.10)
где P (uk, zj) – вероятность совместного появления сообщения uk, zj. С учетом 1.10, выражение 1.9 переписываем:
M N
H (U/Z) = ∑∑ p (uk/zj) log p (uk/zj) / p (zj) (1.11)
j=1 k=1
Возможна так же и следующая форма представления выражения 1.9 и 1.11:
M N
H (U/Z) = M {log 1 / p (uk/zj)} = – ∑ ∑ p (uk/zj) log p (uk/zj) (1.11a)
j=1 k=1
где M {∙} – символ математического ожидания от выражения в скобках.
Условная энтропия удовлетворяет неравенству:
0 ≤ H (U, Z) ≤ H (U) (1.12)
H (U, Z) = 0, когда при реализации ансамбля Z можно точно установить сообщения ансамбля Z (канал без памяти). H (U, Z) = H (U), когда U и Z независимы, и знания реализации Z ничего не говорит о реализации U. В общем случае, H (U, Z) < H (U), и знания реализации Z снижает первоначальную неопределенность U. На основании этого можно ввести информационную характеристику двух ансамблей U и Z, называемой взаимной информацией между U и Z, или количеством информации, содержащемся в Z относительно U, которая определяется как:
I (U, Z) = H (U) – H (U, Z) (1.13)
Взаимная информация измеряется в тех же единицах, что и энтропия (например, в битах). Величина I (U, Z) показывает, сколько в среднем бит информации о реализации ансамбля U дает наблюдение реализации ансамбля Z.
Подставляя 1.4 и 1.11 в 1.13:
N M N
I (U, Z) = – ∑ p (uk) log p (uk) + ∑∑ p (uk, zj) log p (uk, zj) / p (zj)
k=1 j=1 k=1
Отсюда с учетом соотношения p (uk) = ∑ p (uk, zj) получаем:
M N
I (U, Z) = ∑ ∑ p (uk, zj) log [p (uk, zj) / p (zj) * p (uk)] (1.14)
j=1 k=1
Взаимная информация обладает следующими свойствами:
I (U, Z) ≥ 0 (1.15), причем равенство имеет место тогда и только тогда, когда U и Z независимы между собой. Это следует из определения 1.13 и неравенства 1.12.
I (U, Z) = I (Z, U) (1.16), т.е Z содержит столько же информации относительно U, сколько U содержит информации относительно Z. Это свойство вытекает из симметрии выражения 1.14 относительно (uk, zj). Поэтому можно записать H (U, Z) = H (Z) – H (Z, U) (1.17).
I (U, Z) ≤ H (U) (1.18), причем равенство имеет место, когда при реализации Z можно точно восстановить реализацию U (из 1.12 и 1.13).
I (U, Z) ≤ H (Z) (1.19), причем равенство имеет место, когда при реализации U можно точно восстановить реализацию Z (из 1.16 и 1.18).
Полагая в 1.13 Z = U и учитывая, что H (U / U) = 0, получаем I (U, U)=H (U). Это позволяет интерпретировать энтропию источника как его собственную информацию, т.е. информацию, содержащуюся в ансамбле U о самом себе.
Пусть U – ансамбль дискретного сообщения, а Z – ансамбль дискретных сигналов, в которые преобразуются сообщения U. В этом случае, если I (U, Z) = H (U), преобразования U в Z называют обратимыми. При необратимом преобразовании I (U, Z) < H (U) и разность H (U) – I (U, Z) = H (U, Z) называют потерей информации или ненадежностью при преобразовании U в Z. Т.о., информация не теряется только при обратимых преобразованиях. Величина H (U, Z) = H (Z) – I (U, Z) – это энтропия шума преобразователя.