- •1.Информация, сообщение, сигнал. Виды сигналов. Физические характеристики сигнала и канала связи.
- •2.Структурная схема системы передачи информации. Понятия равномерных и неравномерных, простых и помехоустойчивых кодов. Виды помех. Основные информационно-технические характеристики.
- •3.Требования к кодам для линий связи. Классификация линейных кодов. Параметры линейных кодов.
- •Биимпульсные коды: код с инверсией токовых посылок (adi), абсолютный (abc) и относительный (obc) биимпульсные коды, код Миллера (ml). Правила построения. Достоинства и недостатки кодов.
- •Алфавитный код 4в3т. Многоуровневый код (2в1q). Правила построения. Достоинства и недостатки кодов.
- •Информационные характеристики каналов связи. Классификация каналов связи. Пропускная способность канала связи без шума.
- •Пропускная способность канала связи с шумом без стирания.
- •Пропускная способность канала связи с шумом со стиранием
- •Пропускная способность как функция физических характеристик сигнала. Граница Шеннона.
- •Требования к кодам для каналов связи без шума. Классификация эффективных кодов и их основные характеристики. Правило построения кодового дерева. Теоремы Шеннона об эффективном кодировании.
- •Эффективное кодирование при известной статистике сообщений: коды Шеннона-Фано и Хаффмана. Правила построения. Достоинства и недостатки кодов. Применение.
- •Правило построения арифметического кода. Достоинства и недостатки кодов. Применение.
- •Эффективное кодирование при неизвестной статистике сообщений. Комбинаторный метод.
Требования к кодам для каналов связи без шума. Классификация эффективных кодов и их основные характеристики. Правило построения кодового дерева. Теоремы Шеннона об эффективном кодировании.
Цель эффективного кодирования или сжатия данных обеспечить компактное представление данных, вырабатываемых источником для их более экономного хранения или передачи данных.
Требования: Код должен быть однозначно декодируемым и содержать минимум нулей и единиц в кодовой комбинации.
Классификация эффективных кодов
Коды сжатия:
I. С потерями – сжатие за счет удаления визуальной избыточности.
II. Без потерь –за счет устранения статистической избыточности:
С известной статистикой сообщений
Хаффмена
Шеннона-Фано
Арифметический
С неизвестной статистикой сообщений
Комбинаторный метод
Словарные методы
Наглядное графическое изображение множества кодовых слов можно получить установив соответствие между сообщениями и концевыми узлами двоичного кодового дерева. Множеством называются только те комбинации, которые принадлежат конечным узлам. Для того, чтобы построить кодовое дерево для данного кода, начиная с некоторой точки - корня кодового дерева - проводятся ветви - 0 или 1. На вершинах кодового дерева находятся буквы алфавита источника, причем каждой букве соответствуют своя вершина и свой путь от корня к вершине.
Теоремы Шеннона об эффективном кодировании:
Для любого однозначно декодируемого кода всегда выполняется неравенство:
и существует однозначно декодируемый код для которого
(1)
Используя кодирование блоков можно получить среднее число символов на сообщение, сколь угодно мало отличающихся от энтропии.
Обозначим множество всех блоков длины в алфавите от А как Аn, тогда энтропия множества всех блоков: H(Аn )=n∙H(A)
(2)
Выражение (2) вытекает из выражения (1). Если в (1) заменим среднюю длину кодовой комбинации на среднюю длину блока, а энтропию на множество:
H(A) на H(Аn )
то
Чем больше длина кода, тем лучше, но увеличивается сложность кодирования-декодирования.
Эффективное кодирование при известной статистике сообщений: коды Шеннона-Фано и Хаффмана. Правила построения. Достоинства и недостатки кодов. Применение.
Метод Шеннона
Все имеющиеся сообщений располагают в один столбик в порядке убывания вероятностей.
Затем упорядоченные сообщения разбивают на две группы (верхнюю и нижнюю) так, чтобы суммарные вероятности этих групп были по возможности ближе друг к другу.
Для сообщений верхней группы в качестве первого символа кодового слова используется «1», а для нижней - «0».
Далее каждую из полученных групп нужно снова разделить на две части по возможности с близкими суммарными вероятностями.
В качестве второго символа кодового слова используется «1» или «0» в зависимости от принадлежности сообщений к верхней или нижней подгруппе и т.д. Данный процесс продолжается до тех пор, пока подгруппа не будет состоять из единственного сообщения.
Метод Хаффмена
Все имеющиеся сообщений располагают в один столбик в порядке убывания вероятностей.
Затем два самых маловероятных сообщения объединяют в одно сообщение , которое имеет вероятность . В результате получают сообщения , вероятности которых . Эти сообщения вновь располагают в порядке убывания вероятностей.
Далее берут два сообщения, имеющие наименьшие вероятности, объединяют их в одно и вычисляют их общую вероятность.
Шаги 2 и 3 повторяют до тех пор, пока не получат единственное сообщение, вероятность которого равна единице.
Проводя линии, объединяющие сообщения и образующие последовательные подмножества, получают дерево, в котором отдельные сообщения являются концевыми узлами. Соответствующие им кодовые слова можно построить, приписывая ветви, которые идут вниз - «0», а вверх - «1».
Коды Шеннона-Фано и Хаффмена эффективнее равномерного кода. Средний коэффициент сжатия равен 2…4. Применяются для сжатия текстов, изображений и т.д.
Недостатки:
Если произойдет случайная ошибка, то она распространится на все последующие сообщения. Возникает ошибка синхронизации. Применяется в каналах связи с высоким с/ш
При декодировании нужно использовать все передаваемое сообщение, что требует при передаче больших массивов информации огромной памяти.
Минимальная длина кодового слова не может быть меньше 1, тогда как энтропия сообщения может составлять 10-е, 100-е доли бит/сообщ.
Для Хаффмена необходимо иметь таблицу вероятностей для каждого типа сжимаемых данных.