Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ТИКЛекции.doc
Скачиваний:
118
Добавлен:
07.05.2019
Размер:
2.69 Mб
Скачать

Дискретный канал связи с помехами

Для описания сообщений используются математические модели в виде дискретных и непрерывных случайных процессов. Для построения модели необходимо знать объем первичного алфавита знаков, из которых источником формируются сообщения, и вероятности создания им отдельных знаков с учетом возможной взаимосвязи между ними.

При доказательстве основных положений теории информации Шенноном использовалась модель, называемая эргодическим источником сообщений.

Последовательность знаков данного источника удовлетворяет условиям эргодичности (1) и стационарности (2). Первое означает, что статистические закономерности, полученные при исследовании одного достаточно длинного сообщения с вероятностью, близкой к 1, справедливы для всех сообщений, создаваемых источником. Второе означает, что вероятности отдельных знаков и их сочетаний не зависят от расположения последних по длине сообщения. Из статических характеристик нас интересует средняя неопределенность на один знак последовательности.

Стационарный источник сообщений, выбирающий каждый знак формируемой последовательности независимо от других знаков, всегда является эргодическим (источник без памяти). Мы будем рассматривать дискретные каналы связи без памяти.

Каналом без памяти называется канал, в котором на каждый передаваемый символ сигнала, помехи воздействуют, не зависимо от того, какие сигналы передавались ранее. То есть помехи не создают дополнительные коррелятивные связи между символами. Название «без памяти» означает, что при очередной передаче канал как бы не помнит результатов предыдущих передач.

При наличии помехи среднее количество информации в принятом символе сообщении –Y , относительно переданного – X равно:

.

Для символа сообщения XT длительности T, состоящего из n элементарных символов среднее количество информации в принятом символе сообщении –YT относительно переданного – XT равно:

I(YT, XT) = H(XT)-H(XT/YT) = H(YT)-H(YT/XT) = n[H(Y)- H(Y/X].

Для определения потерь в дискретном канале связи используется канальная матрица (матрица переходных вероятностей), позволяющая определить условную энтропию характеризующую потерю информации на символ сообщения.

Скорость передачи информации по дискретному каналу с помехами

равна:

Пропускная способность дискретного канала при наличии помех равна максимально допустимой скорости передачи информации, причем максимум разыскивается по всем распределениям вероятностей p(x) на X и, поскольку, энтропия максимальна для равномерного распределения (для равновероятных символов сообщения), то выражение для пропускной способности имеет вид:

.

Как видно из формулы, наличие помех уменьшает пропускную способность канала связи.

Пример. По каналу связи передаются сообщения, вероятности которых соответственно равны:

p(x1)=0,1; p(x2)=0,2; p(x3)=0,3; p(x4)=0,4.

Канальная матрица, определяющая потери информации в канале связи имеет вид:

.

Определить:

  1. Энтропию источника информации- H(X).

  2. Безусловную энтропию приемника информации- H(Y).

3. Общую условную энтропию- H(Y/X).

  1. Скорость передачи информации, если время передачи одного символа первичного алфавита = 0,1мс.

  2. Определить потери информации в канале связи при передаче 500 символов алфавита.

  3. Среднее количество принятой информации.

  4. Пропускную способность канала связи.

Решение:

  1. Энтропия источника сообщений равна

  1. Вероятности появления символов на входе приемника

Проверка:

Энтропия приемника информации равна

  1. Общая условная энтропия равна

  1. Скорость передачи информации равна:

=(1,85-0,132)/0,0001=17,18 Кбит/с.

  1. Потери информации в канале связи при передаче 500 символов алфавита равны:

5000,132=66 бит.

  1. Среднее количество принятой информации равно:

=500(1,85-0,132)=859 бит.

  1. Пропускная способность канала связи

(2-0,132)/0,0001=18,68 Кбит/с.

Таким образом, пропускная способность канала связи полностью определяется количеством качественных признаков , скоростью передачи символов и вероятностью ложного приема

Основная теорема Шеннона о кодировании для дискретного канала с помехами: Для дискретного канала с помехами существует такой способ кодирования, который позволяет осуществлять безошибочную передачу информации, если производительность источника ниже пропускной способности.

1. Для любой линии связи, при условии , существует такой способ кодирования, чтобы вероятность ошибки в определении каждой переданной буквы оказалась меньше любого заранее заданного . Разумеется, что код будет зависеть от , и, чем меньше , тем сложнее код.

2. Не существует способа кодирования, позволяющего вести передачу информации со сколь угодно малой вероятностью ошибки, если производительность источника сообщений больше пропускной способности.

При доказательстве теоремы находят среднюю вероятность ошибки по всем возможным способам кодирования и показывают, что она может быть сколь угодно малой. При этом существует хотя бы один способ кодирования, для которого вероятность ошибки меньше средней.

Теорема опровергает казавшееся интуитивно правильным представление о том, что достижение сколь угодно малой вероятности ошибки в случае передачи информации по каналу связи с помехами возможно лишь при введении большей избыточности, то есть при уменьшении скорости передачи до нуля. Т.е. влияние помех может быть сведено к нулю не за счет уменьшения скорости передачи информации, а за счет усложнения кодеров и декодеров.

Следует отметить, что при любой конечной скорости передачи информации, вплоть до пропускной способности, сколь угодно малая вероятность ошибки достигается лишь при безграничном увеличении длительности кодируемых последовательностей. Таким образом, безошибочная передача возможна при помехах лишь теоретически.

На практике степень достоверности и эффективности ограничивается двумя факторами: размерами и стоимостью аппаратуры кодирования и декодирования и временем задержки передаваемого сообщения.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]