- •Введение
- •1 Раздел: Количественные информационные характеристики дискретных источников сообщений и каналов Параграф 1.1: Количество информации в дискретном сообщении. Энтропия.
- •Параграф 1.2: Свойство энтропии
- •Параграф 1.3: Условная энтропия и взаимная информация
- •Параграф 1.4: Дискретные источники сообщений с памятью. Избыточность дискретного источника сообщения.
- •Параграф 1.5: Производительность источника дискретных сообщений. Скорость передачи информации.
- •Параграф 1.6: Пропускная способность дискретного канала
- •2 Раздел:
- •Параграф 2.1: Задача согласования дискретного источника с дискретным каналом без шума. Эффективное (статистическое) кодирование.
- •Параграф 2.2: Теорема Шеннона для канала без шума
- •Параграф 2.3. Второй способ доказательства прямой теоремы Шеннона для канала без шума. Метод Фано. Оптимальные коды
- •Параграф 2.4. Задача согласования дискретного источника с дискретным каналом с шумом.
- •Параграф 2.5. Теорема Шеннона для дискретного канала с шумом
- •Параграф 2.6. Методика построения помехоустойчивых кодов. Информационный предел избыточности
- •Подпараграф 3.1.2. Аим - сигнал и его спектр
- •3.1.4. Теорема Котельникова
- •3.2. Оценка ошибок дискретизации и квантования
- •3.2.1. Оценка ошибок дискретизации.
- •3.2.1.1. Оценка погрешности дискретизации обусловленной неограниченностью спектра реального сигнала.
- •3.2.1.2. Оценка погрешности дискретизации, обусловленной неидеальностью интерполирующего фильтра.
- •3.2.1.3. Оценка погрешности дискретизации, обусловленной конечной длительностью отсчетных импульсов.
- •3.2.2. Оценка ошибок квантования
- •3.3. Информация в непрерывных сообщениях
- •3.5. Пропускная способность непрерывного канала. Теорема Шеннона
Параграф 1.2: Свойство энтропии
Энтропия любого дискретного ансамбля неотрицательна: H (U) ≥ 0 (1.5). Равенство 0 возможно лишь в том случае, когда источник генерирует одно единственное сообщение с вероятностью р = 1. Неотрицательность следует из того, что количество информации в каждом из возможных сообщений источника с 1.2 неотрицательно.
Пусть N – объем алфавита дискретного источника, тогда H (U) ≤ log N (1.6), причем равенство имеет место лишь в том случае, когда все сообщения ансамбля равновероятны. Для доказательства 1.6 рассмотрим разность H (U) – log N. Если сообщение uk источника генерируется с различными вероятностями p (uk), то в соотношении 1.4 можно написать:
N N N
H (U) – log N=∑ p (uk) log 1 / p (uk) – log N=∑ p (uk) log 1 / p (uk) – log N * ∑ p (uk) =
N k=1 N k=1 N k=1
∑ p (uk) (log 1 / p (uk) – log N) = ∑ p (uk) log 1 / N p (uk) = log e ∑ p (uk) ln 1 / N p (uk).
k=1 k=1 k=1
Воспользуемся известным соотношением: ln x ≤ 1 (1.7), при x >0.
Причем log x = x – 1 при х – 1. В нашем случае, x = 1 / N p (uk).
Следовательно, N
H (U) – log N ≤ log e ∑ p (uk) [1 / N p (uk) – 1]
k =1 N N
H (U) – log N ≤ log e [ ∑ 1 / N – ∑ p (uk)]
k =1 k =1
H (U) – log N ≤ N*1/N log e – 1
H (U) – log N ≤ 1*log e – 1
H (U) – log N ≤ 0
Следовательно, H (U) ≤ log N, ч.т.д.
При этом, в соответствии 1.7 H (U) – log N = 0 при 1 / N p (uk) = 1 для всех uk, т.е. когда p (uk) = 1 / N при любом k. Максимально возможное значение энтропии дискретного источника с объемом алфавита N равно log N и достигается в том случае, когда все его сообщения равновероятны.
Энтропия объединения нескольких статистически независимых источников сообщений равна сумме энтропий исходных источников (свойство аддитивности). С целью упрощения рассуждений ограничимся рассмотрением объединения, включающего 2 источника сообщений U и V с объемом алфавита N и M соответственно. Под объединением двух источников U и V понимают обобщенный источник сообщений UV, характеризующийся совместной вероятностью p (ui, vj) всех возможных комбинаций состояния ui источника U и vj источника V. В соответствии с этим определением:
N M
H (UV) = M {I (ui, vj) } = ∑ ∑ p (ui, vj) * log p (ui, vj) (1.8a)
i=1 j=1
В случае статической независимости источника U и V имеем p (ui, vj) = P (ui)*P (vj). Тогда
N M N M M
H (UV) = – ∑ ∑ p (ui, vj) * log p (ui)*p(vj) = – ∑ p (ui) log p (ui) * ∑ p (vj) – ∑ p (vj)
i=1 j=1 i=1 j=1 j=1
N
log p (vj) * ∑ p (vj) = H (U) + H (V) (1.8), ч.т.д.
i=1