Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
УМП ТЭС.doc
Скачиваний:
444
Добавлен:
13.02.2015
Размер:
8.38 Mб
Скачать

Теория передачи и кодирования сообщений

15. Теория передачи информации

Количество информации I(xi) в отдельно взятом единичном сообщении xi определяется величиной, обратной вероятности появления сообщения p(xi) и вычисляется в логарифмических единицах:

. (15.1)

При p(xi)=1, I(xi)=0, что соответствует принятому определению информации.

Если источник выдает зависимые сообщения xi1,…,xm, то они характеризуются условными вероятностями p(xi / х1,…,xm). И в этом случае количество информации вычисляется по формуле (15.1) с подстановкой в нее условных вероятностей сообщений.

В системах, работающих с двоичными кодами, используется основание логарифма b = 2 и информация измеряется в двоичных единицах, обычно вместо двоичных единиц используется эквивалентное название – бит, возникшее как сокращенная запись английских слов binary digit (двоичная цифра).

1 бит это количество информации, которое передается единичным символом сообщения, вероятность передачи которого p(xi)= 0,5:

.

15.1. Количество информации переданной по дискретному каналу

Количество информации, переданной по каналу, это разность между энтропией на выходе и энтропией шума:

, (15.2)

I(Y,X) – количество информации, переданной по каналу;

H(Y/X) – энтропия шума (ложная информация, создаваемая помехами);

H(Y) – энтропия на выходе канала;

X={xi} – алфавит источника сообщений;

Y={yj} – алфавит получателя сообщений;

pош – вероятность ошибки при передаче любого символа;

m – количество символов.

Количество информации, переданной по каналу связи, обладает следующими основными свойствами:

I(Y,X) ≥ 0, причём I(Y,X) = 0 тогда и только тогда, когда входные и выходные сообщения в канале взаимно независимы;

I(Y,X) ≤ H(Х), причем I(Y,X) = H(Х), тогда и только тогда, когда входная последовательность определяется однозначно по выходной последовательности, например, когда в канале нет помех;

I(Y,X) = I(Х,Y) = H(Y) - H(Y/X) следует из того, что количество информации не изменится, если входную и выходную последовательность поменять местами.

15.2. Пропускная способность дискретного канала

Пропускной способностью канала, рассчитанной на один входной символ, называется максимальное количество информации, которое может быть передано по каналу, причем максимум ищется по всем возможным источникам X, имеющим различные (произвольные) вероятностные характеристики:

С` = max I(Y,X) [бит/символ].

X

Часто более удобно пользоваться пропускной способностью канала, рассчитанной не на один входной символ, а на единицу времени:

C = C`/T [бит/с].

Величину C называют пропускной способностью канала в единицу времени или просто пропускной способностью.

Пропускная способность канала обладает следующими основными свойствами:

C ≥ 0, C = 0 тогда и только тогда, когда вход и выход канала статистически независимы;

C ≤ log2m / T для канала без помех.

Из определения пропускной способности следует, что характеристика описывает свойства канала, по которому передается информация от определенного источника. Очевидно, никакой источник не способен передать по каналу количество информации большее пропускной способности и данная характеристика описывает потенциальные возможности канала по передаче информации.