- •Введение
- •1 Раздел: Количественные информационные характеристики дискретных источников сообщений и каналов Параграф 1.1: Количество информации в дискретном сообщении. Энтропия.
- •Параграф 1.2: Свойство энтропии
- •Параграф 1.3: Условная энтропия и взаимная информация
- •Параграф 1.4: Дискретные источники сообщений с памятью. Избыточность дискретного источника сообщения.
- •Параграф 1.5: Производительность источника дискретных сообщений. Скорость передачи информации.
- •Параграф 1.6: Пропускная способность дискретного канала
- •2 Раздел:
- •Параграф 2.1: Задача согласования дискретного источника с дискретным каналом без шума. Эффективное (статистическое) кодирование.
- •Параграф 2.2: Теорема Шеннона для канала без шума
- •Параграф 2.3. Второй способ доказательства прямой теоремы Шеннона для канала без шума. Метод Фано. Оптимальные коды
- •Параграф 2.4. Задача согласования дискретного источника с дискретным каналом с шумом.
- •Параграф 2.5. Теорема Шеннона для дискретного канала с шумом
- •Параграф 2.6. Методика построения помехоустойчивых кодов. Информационный предел избыточности
- •Подпараграф 3.1.2. Аим - сигнал и его спектр
- •3.1.4. Теорема Котельникова
- •3.2. Оценка ошибок дискретизации и квантования
- •3.2.1. Оценка ошибок дискретизации.
- •3.2.1.1. Оценка погрешности дискретизации обусловленной неограниченностью спектра реального сигнала.
- •3.2.1.2. Оценка погрешности дискретизации, обусловленной неидеальностью интерполирующего фильтра.
- •3.2.1.3. Оценка погрешности дискретизации, обусловленной конечной длительностью отсчетных импульсов.
- •3.2.2. Оценка ошибок квантования
- •3.3. Информация в непрерывных сообщениях
- •3.5. Пропускная способность непрерывного канала. Теорема Шеннона
Параграф 1.6: Пропускная способность дискретного канала
В любой системе связи через канал передается информация. Её скорость передачи определяется выражением 1.23. Как видно из 1.23, эта скорость зависит не только от свойств самого канала, но и от подаваемого на его вход сигнала, и поэтому не может характеризовать канал как средней переедаемой информации. Попытаемся найти объективную характеристику способности канала передавать информацию.
Рассмотрим дискретный канал, через который передается в единицу времени vk из алфавита объемом М. При передачи каждого символа в среднем передается информация I (U, Z) = H (U) – H (U / Z), где U и Z – ансамбли случайных символов на входе и выходе сигнала. Из четырех фигурирующих здесь энтропий лишь H (U) – собственная информация передаваемого сигнала, определяется источником входного сигнала и не зависит от свойств канала. Остальные три энтропии в общем случае зависят как от источника сигнала, так и от канала.
Представим себе, что на вход канала можно подавать символ от разных источников, характеризующих различными распределениями вероятностей P (U) при одних и тех же значениях vk и М. Для каждого такого источника количество информации, переданной по каналу, принадлежит свое значение. Очевидно, существует какой-то источник входного сигнала с некоторым распределением вероятности P (U), для которого величина I (U, Z) максимальна. Максимальное количество переданной информации, взятой по всем возможным источникам входного сигнала, характеризует сам канал, и называется пропускной способностью канала в расчете на один символ:
Ссимвол = max I (U/ Z) (1.24а)
P (U)
где максимизация произошла по всем возможным многомерным (учитывающим статическую взаимозависимость последовательно выдаваемых элементов сообщений) распределениям вероятностей P (U). Обычно определяют пропускную способность канала С в расчете на единицу времени:
С = max I’ (U/ Z) = vk * Ссимвол (1.24)
P (U)
которую называют просто пропускной способностью канала. Пропускная способность канала удовлетворяет неравенству: 0 ≤ С ≤ vk log M (1.25)
причем С=0 при независимых входе и выходе канала, когда H (U / Z) = H (U) (обрыв канала или сильные помехи по каналу). Другое граничное значение С=vklogM (1.25а) имеет место, когда помех в канале нет, и H (U / Z) = H (Z / U) = 0
H (U) = H (Z) = I (U, Z)
при этом при заданном М:
Hmax (U) = log M (см. 2 свойство энтропии).
Т.о., пропускная способность канала без шума определяется равенством (1.25а). При наличии шума С < vk log M (1.25б)
Пример: как вычислить пропускную способность дискретного симметричного канала без памяти?
В таком канале каждый переданный кодовый сигнал может быть принят ошибочно с вероятностью Р и правильно с вероятностью (1 – Р) (т.е. вероятность ошибки не зависит от того, как символ передается, поэтому канал называется симметричным), причем в случае ошибки вместо переданного символа uk может быть с равной вероятностью принят любой другой символ. Т.о. вероятность того, что принят символ zj при условии, что был передан uk: (1.26)
где N – объем алфавита источника, P (zj / uk) – переходная вероятность, а P (uk / zj) – апостериорная вероятность.
Термин «без памяти» означает, что вероятность ошибки в канале не зависит от того, какие символы передавались раньше и как они были приняты.
В соответствии с 1.24а, Ссимвол = max [H (Z) – H (Z / U)].
P (U)
С учетом 1.9 и 1.26 имеем:
N N z=j N z≠k
H (Z / U) = ∑ p (uk) ∑ p (zj / uk) * log 1 / p (zj / uk) = ∑ p (uk) (1 – p) * log 1 / (1 – p) +
N N k=1 j=1 k=1 N
∑ p (uk) ∑ p / (N – 1) * log (N – 1) / p = (1 – p)log 1/(1 – p) ∑ p (uk) + (N – 1) p / (N – 1)
k=1 j=1 (∑1=N–1) k=1 (∑ p (uk)=1)
* log (N – 1) / p ∑ p (uk) = (1 – p)log 1/(1 – p) + p log (N – 1) / p (1.26a)
k=1 (∑ p (uk)=1)
Итак,
Ссимвол = max [H (Z) – (1 – p)log 1/(1 – p) – p log (N – 1) / p].
В правой части от P (U) зависит только H (Z), следовательно, максимизировать нужно только его H (Z). В соответствии со 2 свойством энтропии, максимальное значение H (Z) = log N и реализуется оно тогда, когда все принятые символы zj равновероятны и независимы. Легко убедиться, что это условие выполняется, если и входные символы равновероятны и независимы (при p (uk) = 1 / N). В этом случае, по формуле полной вероятности имеем:
N N
p (zj) = ∑ p (uk) * p (zj / uk) = 1 / N ∑ p (zj / uk)
k=1 k=1
В соответствие с 1.26, последовательная сумма включает в себя одно слагаемое (1 – p) и (N – 1) – слагаемое p / (N – 1). Поэтому, можно записать:
p (zj) = 1 / N (1 – p + (N – 1) * p / (N – 1),
т.е zj имеет равномерное распределение. При этом, H (Z) = log N и пропускная способность в расчете на один символ будет равна
Ссимвол = log N + p log p / (N – 1) + (1 – p) log (1 – p) (1.27)
Отсюда, пропускная способность С равна:
С = vk [log N + p log p / (N – 1) + (1 – p) log (1 – p)] (1.27a)
Для двоичного симметричного канала (N = 2), пропускная способность:
С = vk [1 + p log p + (1 – p) log (1 – p)] (1.28)
Зависимость C / vk (p) в соответствие с 1.28 имеет вид:
При p = 1 / 2, пропускная способность двоичного канала С = 0, т.к. при такой вероятности ошибки последовательность выходных двоичных данных символов можно получить, совсем не передавая сигналы по каналу, а выбирая их наугад.
Т.о., при р = 1 / 2, последовательность на вход и выход канала независимы (обрыв канал). ТО, что пропускная способность при р = 1 в двоичном канале такая же, что и р = 0 объясняется тем, что при р = 1 достаточно все входные символы проинвертировать, чтобы абсолютно правильно восстановить входной сигнал.