Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ЛекцииТИ.doc
Скачиваний:
14
Добавлен:
14.04.2019
Размер:
920.06 Кб
Скачать

Параграф 1.6: Пропускная способность дискретного канала

В любой системе связи через канал передается информация. Её скорость передачи определяется выражением 1.23. Как видно из 1.23, эта скорость зависит не только от свойств самого канала, но и от подаваемого на его вход сигнала, и поэтому не может характеризовать канал как средней переедаемой информации. Попытаемся найти объективную характеристику способности канала передавать информацию.

Рассмотрим дискретный канал, через который передается в единицу времени vk из алфавита объемом М. При передачи каждого символа в среднем передается информация I (U, Z) = H (U) – H (U / Z), где U и Z – ансамбли случайных символов на входе и выходе сигнала. Из четырех фигурирующих здесь энтропий лишь H (U) – собственная информация передаваемого сигнала, определяется источником входного сигнала и не зависит от свойств канала. Остальные три энтропии в общем случае зависят как от источника сигнала, так и от канала.

Представим себе, что на вход канала можно подавать символ от разных источников, характеризующих различными распределениями вероятностей P (U) при одних и тех же значениях vk и М. Для каждого такого источника количество информации, переданной по каналу, принадлежит свое значение. Очевидно, существует какой-то источник входного сигнала с некоторым распределением вероятности P (U), для которого величина I (U, Z) максимальна. Максимальное количество переданной информации, взятой по всем возможным источникам входного сигнала, характеризует сам канал, и называется пропускной способностью канала в расчете на один символ:

Ссимвол = max I (U/ Z) (1.24а)

P (U)

где максимизация произошла по всем возможным многомерным (учитывающим статическую взаимозависимость последовательно выдаваемых элементов сообщений) распределениям вероятностей P (U). Обычно определяют пропускную способность канала С в расчете на единицу времени:

С = max I’ (U/ Z) = vk * Ссимвол (1.24)

P (U)

которую называют просто пропускной способностью канала. Пропускная способность канала удовлетворяет неравенству: 0 ≤ С ≤ vk log M (1.25)

причем С=0 при независимых входе и выходе канала, когда H (U / Z) = H (U) (обрыв канала или сильные помехи по каналу). Другое граничное значение С=vklogM (1.25а) имеет место, когда помех в канале нет, и H (U / Z) = H (Z / U) = 0

H (U) = H (Z) = I (U, Z)

при этом при заданном М:

Hmax (U) = log M (см. 2 свойство энтропии).

Т.о., пропускная способность канала без шума определяется равенством (1.25а). При наличии шума С < vk log M (1.25б)

Пример: как вычислить пропускную способность дискретного симметричного канала без памяти?

В таком канале каждый переданный кодовый сигнал может быть принят ошибочно с вероятностью Р и правильно с вероятностью (1 – Р) (т.е. вероятность ошибки не зависит от того, как символ передается, поэтому канал называется симметричным), причем в случае ошибки вместо переданного символа uk может быть с равной вероятностью принят любой другой символ. Т.о. вероятность того, что принят символ zj при условии, что был передан uk: (1.26)

где N – объем алфавита источника, P (zj / uk) – переходная вероятность, а P (uk / zj) – апостериорная вероятность.

Термин «без памяти» означает, что вероятность ошибки в канале не зависит от того, какие символы передавались раньше и как они были приняты.

В соответствии с 1.24а, Ссимвол = max [H (Z) – H (Z / U)].

P (U)

С учетом 1.9 и 1.26 имеем:

N N z=j N zk

H (Z / U) = ∑ p (uk) ∑ p (zj / uk) * log 1 / p (zj / uk) = ∑ p (uk) (1 – p) * log 1 / (1 – p) +

N N k=1 j=1 k=1 N

∑ p (uk) ∑ p / (N – 1) * log (N – 1) / p = (1 – p)log 1/(1 – p) ∑ p (uk) + (N – 1) p / (N – 1)

k=1 j=1 (∑1=N–1) k=1 (∑ p (uk)=1)

* log (N – 1) / p ∑ p (uk) = (1 – p)log 1/(1 – p) + p log (N – 1) / p (1.26a)

k=1 (∑ p (uk)=1)

Итак,

Ссимвол = max [H (Z) – (1 – p)log 1/(1 – p) – p log (N – 1) / p].

В правой части от P (U) зависит только H (Z), следовательно, максимизировать нужно только его H (Z). В соответствии со 2 свойством энтропии, максимальное значение H (Z) = log N и реализуется оно тогда, когда все принятые символы zj равновероятны и независимы. Легко убедиться, что это условие выполняется, если и входные символы равновероятны и независимы (при p (uk) = 1 / N). В этом случае, по формуле полной вероятности имеем:

N N

p (zj) = ∑ p (uk) * p (zj / uk) = 1 / N ∑ p (zj / uk)

k=1 k=1

В соответствие с 1.26, последовательная сумма включает в себя одно слагаемое (1 – p) и (N – 1) – слагаемое p / (N – 1). Поэтому, можно записать:

p (zj) = 1 / N (1 – p + (N – 1) * p / (N – 1),

т.е zj имеет равномерное распределение. При этом, H (Z) = log N и пропускная способность в расчете на один символ будет равна

Ссимвол = log N + p log p / (N – 1) + (1 – p) log (1 – p) (1.27)

Отсюда, пропускная способность С равна:

С = vk [log N + p log p / (N – 1) + (1 – p) log (1 – p)] (1.27a)

Для двоичного симметричного канала (N = 2), пропускная способность:

С = vk [1 + p log p + (1 – p) log (1 – p)] (1.28)

Зависимость C / vk (p) в соответствие с 1.28 имеет вид:

При p = 1 / 2, пропускная способность двоичного канала С = 0, т.к. при такой вероятности ошибки последовательность выходных двоичных данных символов можно получить, совсем не передавая сигналы по каналу, а выбирая их наугад.

Т.о., при р = 1 / 2, последовательность на вход и выход канала независимы (обрыв канал). ТО, что пропускная способность при р = 1 в двоичном канале такая же, что и р = 0 объясняется тем, что при р = 1 достаточно все входные символы проинвертировать, чтобы абсолютно правильно восстановить входной сигнал.