Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ПТИ Уч.пос.2011.doc
Скачиваний:
109
Добавлен:
14.03.2016
Размер:
7.04 Mб
Скачать

7. Потери информации в системах электросвязи при наличии помех Пятый постулат теории информации

Вернёмся к рис. 4. Пусть матрица соответствия Π = || π j k; j, k = 1, 2, …, N || диагонализируема ( | det Π | = 1), так что в отсутствие в канале КПДС помех статическая система передачи информации абсолютно надёжна [= 1] и потери информации в системе ССПИ не происходит, а между символами {wj}и знаками {uj}имеется одно-однозначное соответствие.

Из-за наличия в реальных каналах КПДС (в основном – в линиях электросвязи) различного рода естественных и искусственных помех это одно-однозначное соответствие непредсказуемым (случайным) образом нарушается. В простейшем варианте системы ССПИ (см. рис. 5) стохастичность канала КПДС можно характеризовать квадратной переходной матрицей порядка N П = || Pj k; j, k = 1, 2, …, N ||, элементы которой Pj k = P (wk|uj) есть условные вероятности того, что входному (первичному) знаку uj U будет соответствовать (при сканировании произвольного текста) выходной символ wk W. При любом значении j = 1, 2, …, N соблюдается равенство , то есть элементарное сообщениеuj в любом случае как-то идентифицируется (решение на выходе декодера: «Не знаю, что за знак был передан по каналу КПДС!» – не принимается). По формуле полной вероятности .

Понятно, что если переходная матрица П имеет диагональный вид, то есть П = || δj k; j, k = 1, 2, …, N ||, где δj k = 1 при j = k и δj k = 0 при jkj k – символ Кронекера), то символу wk всегда будет присваиваться значение знака uk – и потерь информации в канале КПДС происходить не будет. Такие системы ССПИ рассматривались в разд. 6.

В общем случае матрица П – произвольная, с двумя ограничениями:

а) 0 ≤ Pj k ≤ 1;

б ) = 1 при любом j = 1, 2, …, N.

помехи

К П Д С

ДИС

Линия

эл./связи

ПИ

Декодер

ПЗУ

Кодер

Π = { Pj k }

U = {uj}P11 P12P1 kP1 N W = {wk}

P = {Pj}P21 P22P2 k P2 N Pвых = {P'k}

I = {Ij}. . . . . . . . . . . . . . . . . . .Iвых ={I'k j; j, k = 1, 2, …, N }

= – Pj 1 Pj 2Pj k Pj N

. . . . . . . . . . . . . . . . . . . .

PN 1 PN 2PN k PN N

Рис. 5. Статическая система передачи

дискретной информации при наличии помех

Отметим также, что величина (сумма элементовk-го столбца матрицы П) может лежать в пределах от 0 до N при любом k = 1, …, N, то есть в крайних случаях либо k-му символу wk не будет присвоено ни одного из значений переданных знаков ujU, либо всем им будет соответствовать выходной символ wk.

Каким же образом символу wkW на выходе КПДС следует присваивать значение некоторого знака ujU? Оптимальным решением, с точки зрения математической статистики, будет следующее: символу wk нужно присваивать значение uj, апостериорная вероятность которого

P(uj|wk) = P(uj) P(wk|uj) /P(wk) = Pj Pjk /P'k

максимальна по всем значениям j = 1, 2, …, N (байесовское решение). В этом случае информационные потери в канале КПДС должны быть минимальными.

Переставим столбцы матрицы П в соответствии с этим правилом принятия решения таким образом, чтобы k-й выходной символ wk соответствовал k-му знаку uk на входе канала КПДС. Тогда знаку uj чаще всего (но не всегда!) будет соответствовать символ wj.

При произвольной матрице П сообщение Si(n) = ( ui1, ui2, …, uik, …, uin ) будет доходить до получателя ПИ в искажённом виде S'i(n) = ( wi1, wi2, …, wik, …, win ), поскольку в общем случае любому символу wik может быть случайным образом присвоено значение любого знака uj. Поэтому возникает вопрос: насколько эти искажения существенны? Поскольку нас интересуют «длинные сообщения» (Si(n), n >> 1), у которых I(Si(n)) ≈ n n H(U), то в простейшем случае, когда помехи в канале КПДС не зависят от знаков uj U, нам нужно определить среднюю (на один входной знак uj) потерю синтактической информации при ошибочной идентификации знаков {uj}источникаДИС на выходе канала КПДС.

Казалось бы, количество информации Ij j, которое содержится в выходном символе wj, относительно информации, содержащейся во входном знаке uj – после упорядочения («квазидиагонализации») матрицы П = || Pj k || в соответствии с байесовским правилом идентификации символов wk – можно вычислить по формуле Ij j = Pj j Ij = – Pj j log Pj. Тогда «естественным образом» получается:

при Pj j = 1 величина Ij j = Ij = – log Pj, а при Pj j = 0: Ij j = 0.

Однако это не так, ибо отсутствие в выходном символе wk информации о входном знаке uj соответствует не случаю, когда Pj k = P(wk|uj) = 0, а случаю, когда вероятность Pj k появления на выходе КПДС символа wk не связано статистически с появлением знака uj на его входе, то есть когда

Pj k = P(wk|uj) = P(wk) = P'k, или .

Поскольку P(uj, wk) = P(uj) P(wk|uj) = P(wk) P(uj|wk), то

,

и при P(wk|uj) = P(wk), или, что то же самое, при Pjk = P'k справедливо равенство: P(uj|wk) = P(uj).

Если у симметричного бинарного канала КПДС P(wk|uj) = 0,5 = P(wk), то,

как остроумно заметил К. Шеннон ([46], с. 227), линия электросвязи в КПДС вовсе не нужна: получатель информации ПИ может с таким же успехом подбрасывать монету. И хотя половина знаков uj будет идентифицирована на выходе канала КПДС правильно, какие из символов wik в последовательности S'i(n) = (wi1, wi2, …, wik, …, win ) будут соответствовать знакам uj, а какие – нет, получатель информации определить не сможет. В этом случае

P(wk|uj) = P(wk), или Pj k /P'k = 1, или log (Pj k /P'k ) = – log (P'k /Pj k) = 0.

Значит,

величиной Ik j = log (Pj k /P'k) можно характеризовать

количество информации, содержащейся в выходном символе wkW

относительно входного знака ujU.

Если при всех значениях j и k от 1 до N величина Pj k принимает значение либо Pj k = 1, либо Pj k = 0 (то есть Pj k = π j k), то мы приходим к вариантам, рассмотренным нами в разд. 6: Ik j = log j k /P'k).

Особенно ясно это видно при анализе потерь информации в бинарных системах передачи сообщений.

Пусть имеется бинарный канал КПДС. Его функционирование можно описать схемой, представленной на рис. 6. Введём следующие обозначения:

P1 = P, P2 = 1 – P, P11 = p, P12 = 1 – p, P22 = q, P21 = 1 – q,

Ik j = log (Pj k /P'k); j, k = 1, 2;

P'1 = P p + (1 – P) (1 – q), P'2 = P (1 – p) + (1 – P) q.

Удельная информативность знаков (энтропия) бинарного источника ДИС

.

Рассмотрим случай а) на рис. 6: p = 1, q = 1, p + q = 2. В этом случае потерь информации нет, и среднее количество информации, содержащейся на выходе канала КПДС относительно источника ДИС, определяется из следующих

P11 = p

(P1 = P ) u1 →¤ ¤→ w1 (P'1)

P12 = 1 – p P21 = 1 – q

(P2 = 1 – P ) u2 →¤ ¤→ w2 (P'2 = 1 – P' )

P22 = q

p = 1 p = 0 p = 0

u1 →¤ ¤→ w1 u1 →¤ ¤→ w1 u1 →¤ ¤→ w1

u2 →¤ ¤→ w2 u2 →¤ ¤→ w2 u2 →¤ ¤→ w2

q = 1 q = 0 q = 1

а) б ) в)

p = 0,5

u1 →¤ ¤→ w1

0,5

0,5

u2 →¤ ¤→ w2

q = 0,5

г)

Рис. 6. Бинарный канал передачи дискретных сообщений

вычислений – в соответствии с формулой (6.2):

P'1 = P; P'2= 1 – P;

P1 P11 I11 = – P log P; P1 P12 I21 = – P·0·log 0 = 0;

P2 P21 I12 = – (1 – P)·0·log 0; P2 P22 I22 = – (1 – P) log (1 – P);

.

Вводя обозначение (U, П) = и определяя коэффициент надёжности бинарной системы передачи дискретных сообщений как χ(U, П) = (U, П) /(U) ≡ χ(P, p, q) в случае а) получим:

(U, П) = (U), χ(P, 1, 1) = 1.

Удельная информативность (U, П) множества символов W на выходе канала КПДС при данном источнике ДИС U на его входе равна:

(U, П) ==,

или (U, П) = . (7.1)

Величину R (U, П) К. Шеннон назвал «скоростью передачи информации» по каналу КПДС ([46], с. 277).

Мы будем под величиной (U, П) подразумевать среднее количество

синтактической информации, передаваемой по каналу КПДС,

на вход которого поступают всевозможные элементарные

сообщения (знаки) uj U источника ДИС, а на выходе появляются

символы (вторичные знаки) wk из совокупности W,

приходящейся на один знак из совокупности U (бит/знак),

поскольку рассматриваются статические системы ССПИ

В варианте а) на рис. 6:

(U, П) = – P log P – (1 – P ) log (1 – P ) = (U) [бит/знак].

В общем случае (N ≥ 2) при Pj k = δj k получаем:

Ik j = – δ j k log Pj = – δ j k log (P'k /Pj k) и (U, П) = (U).

В случае б ) на рис. 6: p = q = 0, p + q = 0. Тогда P11 = P22 = 0, то есть переданному знаку u1 никогда не будет соответствовать выходной символ w1, а знаку u2 – символ w2. Однако это не значит, что информация в такой системе ССПИ будет полностью потеряна. Напротив, если декодер символу w1 будет присваивать значение знака u2, а символу w2 – знака u1 (согласно правилу максимума апостериорной вероятности), то потери информации в канале КПДС вообще не будет происходить и

(U, П) = = – (1 – P ) log (1 – P ) – P log P = (U).

В случае в) на рис. 6: p = 0, q = 1, p + q = 1. Очевидно, что здесь происходит полная потеря информации при любом алгоритме работы декодера, хотя

величина q ≠ 0.

Действительно. Вычислим значение функции (U, П).

Заметим, что P'1 = 0, а P'2 = 1. Значит:

j = 1, k = 1 ► Pj Pjk = P1 P11 = P · 0 = 0; j = 1, k = 2 ► P1 P11 = P1· 1 = P;

j = 2, k = 1 ► P2 P21 = (1 – P )·0 = 0; j = 2, k = 2 ► P2 P22 = 1 – P;

(U, П) = 0 – P log 1 + 0 – (1 – P ) log 1 = 0.

Если отнести величину (U, П) к удельной информативности (U) источника ДИС, то в случаях а) ( p + q = 2) и б ) ( p + q = 0) получим: χ(P, p, q) = =(U, П)/(U) = 1, а в случае в): p = 0, q = 1, p + q= 1, χ( P, 0, 1) = 0.

Величина κ (P, p, q) = 1 – χ (P, p, q) показывает процент потерь информации источника ДИС в канале КПДС; поэтому величину χ (P, p, q) = 1 – κ (P, p, q) следует называть коэффициентом информационной надёжности статической системы передачи дискретных сообщений (ССПИ ).

В случае г) на рис. 6 ( p = q = 1/2) получаем следующее:

P'1 = (P + 1 – P) = = P'2;

P1 P11 I11 = – P log = 0; P1 P12 I21 = 0;

P2 P21 I12 = P2 P22 I22 = 0; (U, П) = 0; χ(P, , ) = 0,

то есть в этом случае в канале КПДС также происходит полная потеря информации относительно любой достаточно длинной входной последовательности Si(n) = ( ui1, ui2, …, uik, …, uin ), n >> 1.

Рассмотрим общий случай (0 < p < 1, 0 < q < 1) и определим, когда происходит полная потеря информации в системе ССПИ. Теперь уже совершенно ясно, что это произойдёт в случае, если вероятность поступления к получателю ПИ символа wk не зависит от того, какой из знаков uj множества U = {uj}был выдан источникомДИС в канал КПДС, то есть при P (wk|uj) = P (wk).

При k = 1, j = 1: P(w1) = P'1 = P(w1|u1) = p.

При k = 1, j = 2: P(w1) = P'1 = P(w1|u2) = 1 – q.

Приравнивая правые части этих равенств, получаем:

p = 1 – q, или p + q = 1, а χ(P, p, q) = 0.

То же самое получается при k = 2. Частные случаи ( p = 0, q = 1: случай в) и p = q = 0,5: случай г) на рис. 6) как раз соответствуют варианту p + q = 1.

Итак, если p + q = 2, то (U, П) = (U), χ(P, p, q) = 1;

если p + q = 0, то (U, П) = (U), χ(P, p, q) = 1;

если p + q = 1, то (U, П) = 0, и надёжность канала КПДС становится нулевой: χ(P, p, q) = 0.

Значит, мы получили два сечения поверхности χ(P, p, q) по уровням χ = 1 и χ = 0 (см. рис. 7): точки (0, 0, 1) и (1, 1, 1), в которых χ(P, p, q) = 1, и прямую p + q = 1 на плоскости ( p, q), на которой χ(P, p, q) = 0.

Рис. 7. Зависимость коэффициента информационной надёжности χ

канала КПДС от величин p и q

Если p + q ≠ 2, p + q ≠ 0, а также p + q ≠ 1, то 0 < χ(P, p, q) < 1, и эти две точки и прямую можно соединить, при заданном значении P и различных зна-

чениях p и q, непрерывной поверхностью χ(P, p, q) по формуле:

χ(P, p, q) =/(U), (7.2)

где P'k = , а (U) = – P log P – (1 – P) log (1 – P).

Зависимость коэффициента надёжности χ(P, p, q) бинарной статической системы передачи семиотической («дискретной») информации ССПИ от переменных p и q при P = 0,5 представлена на рис. 7.

Отметим, что в симметричных бинарных системах ССПИ ( p = q) непреднамеренные помехи (естественного и искусственного происхождения) могут снизить величину ( p + q) от значения p + q = 2 ( p = q = 1) до значения p + q = 1 (то есть p = q = 0,5: см. рис. 7). Интервал значений от p + q = 0 ( p = q = 0) до p + q = 1 относится к организованным «противником» помехам в канале КПДС.

Пусть в качестве знаков u1 и символов w1 используется “1”, а в качестве u2 и w2 – “0” (современные бинарные цифровые системы электросвязи). Если «противник» – глупый, то он каждую посланную источником ДИС “единицу” будет ретранслировать как “ноль” и наоборот. Нетрудно распознать такой алгоритм подавления электросвязи и поменять алгоритм работы сканера: “единицам” первичного источника ДИС присваивать значения символов “ноль” и наоборот. В таком случае эффективность противодействия «глупого противника» становится нулевой, а канал передачи информации – стопроцентно надёжным.

Для распознавания субъектами общения такого «глупого противника» им достаточно договориться, что вместе с информационным блоком всегда будет передаваться известная источнику ДИС и получателю ПИ псевдослучайная последовательность, анализ которой и выявит тактику «противника».

В сотовых системах стандарта GSM 900 такая псевдослучайная последовательность служит для оценки текущей надёжности канала КПДС в каждом рабочем кадре (так называемая «обучающая последовательность»).

Максимальная эффективность противодействия обмену информацией между ДИС и ПИ будет иметь место при p + q = 1; например, когда «противник» половину “единиц” будет ретранслировать, по псевдослучайному закону, как “ноли”, а половину “нолей” – как “единицы”.

В этом случае p = q = 0,5 и χ(P, p, q) = 0.

Мы так подробно остановились на вопросе о потере знаковой («дискретной») информации в каналах КПДС при наличии в них непреднамеренных или организованных помех потому, что его решение наиболее трудно для понимания, а в соответствующей литературе по этому вопросу наблюдаются разночтения. В то же время, адекватное решение вопроса о потерях информации в каналах связи и правильная его ( решения) интерпретация имеют фундаментальное значение для понимания прикладной теории информации и её приложений.

Рассмотрим эти решения и некоторые их интерпретации.

Итак, пусть количество информации Ik j, содержащейся в символе wk W на выходе канала КПДС относительно выданного источником ДИС знака uj U,

определяется формулой:

Ik j = log=. (7.3)

Поскольку формально-математически выражение (7.3) ниоткуда не следует, то соотношение (7.3) нужно рассматривать как пятый постулат теории информации.

А уже из этого постулата следует:

среднее на один знак ujU количество информации (U, П),

получаемое на выходе статического канала КПДС,

относительно информации, выдаваемой источником ДИС, есть:

(U, П) = =log. (7.4)

При Pj k = δj k величина

(U, П) = log== (U, П).

Надёжность передачи информации по данному каналу КПДС от данного источника ДИС определяется коэффициентом информационной надёжности такой системы передачи дискретной информации ССПИ:

χ(U, П) = (U, П)/(U). (7.5)

Максимальная надёжность по всевозможным источникам ДИС определяется только переходной матрицей П = || Pjk || = || P(wk|uj); j, k, = 1, 2, …, N || и является собственной характеристикой информационной надёжности канала КПДС χ(П).

Если же пятый постулат теории информации (7.3) сформулировать непротиворечивым образом как-либо иначе, то, аналогично неевклидовым геометриям, можно получить столь же строгую «не-шенноновскую» теорию информации, применимость которой в данной научной области потребует дополнительных исследований.

Вопросы для самопроверки

1. Что такое переходная матрица системы электросвязи и в чём состоит математический смысл её элементов?

2. Какова обобщённая структура статической системы передачи дискретных сообщений при наличии в ней помех?

3. При каких условиях происходит полная потеря информации в бинарных дискретных системах передачи информации?

4. Какова общая зависимость коэффициента информационной надёжности бинарного канала передачи дискретных сообщений от величины элементов его переходной матрицы?

5. В чём состоит пятый постулат теории информации, и каков его математический смысл?

6. Каково среднее на один знак источника дискретных сообщений количество информации, получаемое на выходе канала передачи дискретных сообщений?

7. Как определяется коэффициент информационной надёжности системы передачи дискретных сообщений при наличии помех в её канале связи?