- •Теория электрической связи
- •Оглавление
- •Сообщения, сигналы и помехи
- •1. Общие сведения о системах электрической связи
- •1.1. Информация, сообщения, сигналы и помехи
- •1.2. Общие принципы построения систем связи
- •1.3. Классификация систем связи
- •2. Математическая модель сигналов
- •2.1. Математическое описание сигнала
- •2.2. Математическое представление сигналов
- •2.3. Геометрическое представление сигналов
- •2.4. Представление сигналов в виде рядов ортогональных функций
- •3. Спектральные характеристики сигналов
- •3.1. Спектральное представление периодических сигналов
- •3.2. Спектральное представление непериодических сигналов
- •3.3. Основные свойства преобразования Фурье:
- •10. Спектры мощности.
- •4. Сигналы с ограниченным спектром. Теорема Котельникова
- •4.1. Разложение непрерывных сигналов в ряд Котельникова
- •Спектр периодической последовательности дельта-импульсов в соответствии с формулой для u(t) имеет следующий вид:
- •4.2. Спектр дискретизированного сигнала
- •4.3. Спектр сигнала дискретизированного импульсами конечной длительности (амплитудно-импульсно модулированный (аим) сигнал)
- •4.4. Восстановление непрерывного сигнала из отсчётов
- •4.5. Погрешности дискретизации и восстановления непрерывных сигналов
- •5. Случайные процессы
- •5.1. Характеристики случайных процессов
- •Функция распределения вероятностей сп (фрв).
- •Двумерная фрв.
- •Функция плотности вероятностей случайного процесса (фпв)
- •5.2. Нормальный случайный процесс (гауссов процесс)
- •5.3. Фпв и фрв для гармонического колебания со случайной начальной фазой
- •5.4. Фпв для суммы нормального случайного процесса и гармонического колебания со случайной начальной фазой
- •5.5. Огибающая и фаза узкополосного случайного процесса
- •5.6. Флуктуационный шум
- •6. Комплексное представление сигналов и помех
- •6.1. Понятие аналитического сигнала
- •6.2. Огибающая, мгновенная фаза и мгновенная частота узкополосного случайного процесса
- •7. Корреляционная функция детерминированных сигналов
- •7.1. Автокорреляция вещественного сигнала
- •Свойства автокорреляционной функции вещественного сигнала:
- •7.2. Автокорреляция дискретного сигнала
- •7.3. Связь корреляционной функции с энергетическим спектром
- •7.4. Практическое применение корреляционной функции
- •Методы формирования и преобразования сигналов
- •8. Модуляция сигналов
- •8.1. Общие положения
- •8.2. Амплитудная модуляция гармонического колебания
- •8.3. Балансная и однополосная модуляция гармонической несущей
- •9. Методы угловой модуляции
- •9.1. Принципы частотной и фазовой (угловой) модуляции
- •9.2. Спектр сигналов угловой модуляции
- •9.3. Формирование и детектирование сигналов амплитудной и однополосной амплитудной модуляции
- •9.4. Формирование и детектирование сигналов угловой модуляции
- •10. Манипуляция сигналов
- •10.1. Временные и спектральные характеристики амплитудно-манипулированных сигналов
- •10.2. Временные и спектральные характеристики частотно-манипулированных сигналов
- •10.3. Фазовая (относительно-фазовая) манипуляция сигналов
- •Алгоритмы цифровой обработки сигналов
- •11. Основы цифровой обработки сигналов
- •11.1. Общие понятия о цифровой обработке
- •11.2. Квантование сигнала
- •11.3. Кодирование сигнала
- •11.4. Декодирование сигнала
- •12. Обработка дискретных сигналов
- •12.1. Алгоритмы дискретного и быстрого преобразований Фурье
- •12.2. Стационарные линейные дискретные цепи
- •12.3. Цепи с конечной импульсной характеристикой (ких-цепи)
- •12.4. Рекурсивные цепи
- •12.5. Устойчивость лис-цепей
- •13. Цифровые фильтры
- •13.1. Методы синтеза ких-фильтров
- •13.2. Синтез бих-фильтров на основе аналого-цифровой трансформации
- •Каналы связи
- •14. Каналы электрической связи
- •14.1. Основные определения
- •14.2. Модели непрерывных каналов
- •14.3. Модели дискретных каналов
- •Теория передачи и кодирования сообщений
- •15. Теория передачи информации
- •15.1. Количество информации переданной по дискретному каналу
- •15.2. Пропускная способность дискретного канала
- •15.3. Пропускная способность симметричного дискретного канала без памяти
- •15.4. Методы сжатия дискретных сообщений
- •Построение кода Шеннона-Фано
- •Построение кода Хаффмена
- •15.5. Количество информации, переданной по непрерывному каналу
- •15.6. Пропускная способность непрерывного канала
- •Характеристики типовых каналов многоканальной связи
- •16. Теория кодирования сообщений
- •16.1. Основные понятия
- •16.2. Коды с обнаружением ошибок
- •16.3. Корректирующие коды
- •Соответствие синдромов конфигурациям ошибок
- •Зависимость между n, m и k
- •Неприводимые полиномы p(X)
- •Помехоустойчивость
- •17. Помехоустойчивость систем передачи дискретных сообщений
- •17.1. Основные понятия и термины
- •17.2. Бинарная задача проверки простых гипотез
- •17.3. Приём полностью известного сигнала (когерентный приём)
- •17.4. Согласованная фильтрация
- •17.5. Потенциальная помехоустойчивость когерентного приёма
- •17.6. Некогерентный приём
- •17.7. Потенциальная помехоустойчивость некогерентного приёма
- •18. Помехоустойчивость систем передачи непрерывных сообщений
- •18.1. Оптимальное оценивание сигнала
- •18.2. Оптимальная фильтрация случайного сигнала
- •18.3. Потенциальная помехоустойчивость передачи непрерывных сообщений
- •19. Адаптивные устройства подавления помех
- •19.1. Основы адаптивного подавления помех
- •19.2. Подавление стационарных помех
- •19.3. Адаптивный режекторный фильтр
- •19.4. Адаптивный высокочастотный фильтр
- •19.5. Подавление периодической помехи с помощью адаптивного устройства предсказания
- •19.6. Адаптивный следящий фильтр
- •19.7. Адаптивный накопитель
- •Многоканальная связь и распределение информации
- •20. Принципы многоканальной связи и распределения информации
- •20.1. Общие положения
- •20.2. Частотное разделение каналов
- •20.3. Временное разделение каналов
- •20.3. Кодовое разделение каналов
- •20.4. Синхронизация в спи с многостанционным доступом
- •20.5. Коммутация в сетях связи
- •Эффективность систем связи
- •21. Оценка эффективности и оптимизация параметров телекоммуникационных систем (ткс)
- •21.1. Критерии эффективности
- •21.2. Эффективность аналоговых и цифровых систем
- •Формулы для приближенных расчетов частотной эффективности некоторых ансамблей сигналов
- •Значения выигрыша и информационной эффективности некоторых систем передачи непрерывных сообщений
- •21.3. Выбор сигналов и помехоустойчивых кодов
- •22. Оценка эффективности радиотехнической системы связи
- •22. 1. Тактико-технические параметры радиотехнической системы связи
- •22.2. Оценка отношения сигнал/помеха на входе радиоприемники радиотехнической системы связи
- •22.3. Оптимальная фильтрация непрерывных сигналов
- •22.4. Количество информации при приёме дискретных сигналов радиотехнической системы связи
- •Вероятность ошибок для различных видов сигналов и приёма
- •Количество информации для различных видов сигналов и приёма
- •22.5. Количество информации при оптимальном приёме непрерывных сигналов
- •22.6. Выигрыш в отношении сигнал/помеха
- •Расчетные формулы выигрыша оптимального демодулятора при различных видах модуляции
- •22.7. Пропускная способность каналов радиотехнической системы связи
- •Теоретико-информационная концепция криптозащиты сообщений в телекоммуникационных системах
- •23. Основы криптозащиты сообщений в системах связи
- •23.1. Основные понятия криптографии
- •23.2. Метод замены
- •23.3. Методы шифрования на основе датчика псевдослучайных чисел
- •23.4. Методы перемешивания
- •23.5. Криптосистемы с открытым ключом
- •13.6. Цифровая подпись
- •Заключение
- •Список сокращений
- •Основные обозначения
- •Литература
- •Теория электрической связи
15.3. Пропускная способность симметричного дискретного канала без памяти
Пропускная способность дискретного канала с учетом (15.2), по которому передается m дискретных сигналов, вычисляется по формуле
, (15.3)
где VИ = 1/T – скорость модуляции, бод; T – длительность сигнала; pош – вероятность ошибки в канале. Заметим, что пропускная способность дискретного канала без помех (при pош = 0): CДК = VИ [log2m].
В частности пропускная способность двоичного канала (m = 2):
CДК = VИ [1 + (1- pош) log2(1- pош) + pош log2(pош)]. (15.4)
Зависимость отношения C/VИ от вероятности ошибки pош, рассчитанная по формуле (15.4), показана на рис. 15.1.
Рис. 15.1. Пропускная способность дискретного канала
Как следует из графика, при pош = 0,5 пропускная способность двоичного канала равна нулю (С = 0). Этот случай называют обрывом канала. Действительно вероятность ошибки pош = 0,5 можно получить и без передачи информации по каналу связи. А при pош = 1 пропускная способность такая же, как и при pош = 0 (канал без помех). Это объясняется тем, что при pош = 1 достаточно заменить нули на единицы и единицы на нули, чтобы абсолютно правильно восстановить переданный сигнал.
Пример. Определим пропускную способность двоичного телеграфного канала, если скорость передачи в нем 1000 бит/с и вероятность ошибки 10-3 и сделаем вывод о том насколько отличается пропускная способность этого канала от идеального. Согласно формуле (15.4), при заданных параметрах:
CДК = 1000 [1 + 0,001 · log20,001 + (1-0,001) · log2(1-0,001)] = 989 [бит/с].
Для идеального канала при pош = 0 получаем CДК = VИ = 1000 бит/с. Сравнение этих величин показывает, что ошибки в канале привели к уменьшению пропускной способности на 11 бит/с (т.е. потери составили 1,1%).
15.4. Методы сжатия дискретных сообщений
Условия существования оптимального неравномерного кода. При передаче сообщения необходимо согласовывать источник с каналом путем определения правила, по которому каждому элементу сообщения ставится в соответствие некоторый код, преобразуемый далее в сигнал.
В настоящее время существует два основных направления развития теории кодирования:
1) В одном из них рассматриваются задачи повышения достоверности передачи в каналах с помехами, решаемые применением помехоустойчивых кодов, которые позволяют обнаруживать или исправлять ошибки. Такое кодирование называется помехоустойчивым. При этом избыточность кодовой последовательности выше, чем избыточность источника сообщений.
2) Другое направление теории кодирования связано с вопросами устранения избыточности при передаче сообщений в каналах без помех. Цель кодирования при этом состоит в таком преобразовании сообщения, при котором избыточность кодовой последовательности должна стать меньше, чем избыточность сообщений источника. В результате появляется возможность увеличения скорости передачи информации или снижаются требования к пропускной способности канала.
Процесс кодирования с целью уменьшения избыточности источника сообщений называется согласованием источника с каналом, или сжатием сообщения источника (экономного кодирования, энтропийного кодирования).
Количественно избыточность оценивается коэффициентом избыточности:
, (15.5)
где H(X) – энтропия источника;
Hmax(X) = log2m – максимальная энтропия источника с алфавитом из m сообщений.
Избыточность (15.5) равна нулю только в том случае, когда элементы сообщения появляются на выходе источника с равными вероятностями p(xi) = 1/m (i = 1, 2, 3,…, m) и независимо друг от друга p(xi,xj) = p(xi) · p(xj). Если же H (X) < log2m, то оказывается возможным построение кодов, имеющих меньшую избыточность, чем источник сообщений.
Покажем это на простейшем примере.
Пусть источник имеет алфавит из четырех символов А, Б, В, Г с вероятностями p(A) = 0,5; p(Б) = 0,25; p(B) = p(Г) = 0,125.
Энтропия такого источника:
.
При использовании равномерного кодирования, например, А → 00, Б → 01, В → 10, Г → 11. Тогда среднее число двоичных символов в сообщении, приходящихся на один символ источника, равно двум. Поскольку это на 12,5% больше энтропии источника, то используемый код не является оптимальным.
Рассмотрим теперь неравномерный код: А → 0, Б → 10, В → 110, Г → 111. В этом случае среднее число двоичных символов, приходящихся на один символ источника в сообщении,
.
Таким образом, среднее число двоичных символов, приходящихся на один символ источника, равно энтропии источника, т.е. для указанного источника неравномерный код оказывается более экономичным, чем равномерный.
Важно отметить, что при кодировании неравномерным кодом должна обеспечиваться возможность однозначного декодирования символов сообщения.
Например, для рассмотренного источника, нецелесообразно применять код: А → 0, Б → 1, В → 10, Г → 11, поскольку прием последовательности 10 может означать передачу символа В, или двух символов Б и А. Неоднозначно также декодирование символов 11. Для однозначного декодирования неравномерные коды должны удовлетворять условию префиксности: никакое более короткое слово не должно являться началом более длинного слова. Неравномерные коды, удовлетворяющие этому условию, называют префиксными.
Неравномерные коды позволяют в среднем уменьшить число двоичных символов на единичное информационное сообщение. Однако им присущ существенный недостаток: при возникновении ошибки она распространяется на все последующие элементы сообщения. Возникает ошибка синхронизации, приводящая к резкому ухудшению достоверности приема.
Этот недостаток отсутствует в равномерных кодах. При кодировании равномерными кодами используется одно и то же число двоичных символов – блок; поэтому такие коды называют блоковыми.
Показатели эффективности сжатия. Наряду с коэффициентом избыточности (15.5), часто используется коэффициент сжатия источника:
.
Коэффициент сжатия источника показывает, во сколько раз можно уменьшить количество двоичных символов для представления единичного символа источника с энтропией H(X) по сравнению со случаем, когда все сообщения источника передаются равновероятно.
Например, для источника, рассмотренного выше, коэффициент сжатия
,
т.е. скорость передачи информации по каналу связи при использовании экономичного кодирования может быть в 1,14 раза больше, чем при равномерном кодировании.
Кодирование источника дискретных сообщений методом Шеннона-Фано. Кодирование методом Шеннона-Фано рассмотрим на примере. Пусть алфавит источника содержит шесть элементов {А, Б, В, Г, Д, Е}, появляющихся с вероятностями p(A) = 0,15; p(Б) = 0,25; p(B) = 0,1; p(Г) = 0,13; p(Д) = 0,25; p(Е) = 0,12.
Энтропия такого источника:
H(X) = -0,15·log2 0,15 - 0,25·log2 0,25 - 0,1·log2 0,1 - 0,13·log2 0,13 - 0,25·log2 0,25 - - 0,12·log2 0,12 = 2,492.
Алгоритм построения сжимающего кода Шеннона-Фано заключается в следующем.
1. Все m символов дискретного источника располагаются в порядке убывания вероятностей их появления (таблица 15.1).
2. Образованный столбец символов делится на две группы таким образом, чтобы суммарные вероятности каждой группы мало отличались друг от друга.
3. Верхняя группа кодируется символом «1», а нижняя – «0».
4. Каждая группа делится на две подгруппы с близкими суммарными вероятностями; верхняя подгруппа кодируется символом «1», а нижняя – «0».
5. Процесс деления и кодирования продолжается до тех пор, пока в каждой подгруппе не окажется по одному символу сообщения источника.
6. Записывается код для каждого символа источника; считывание кода осуществляется слева направо.
Таблица 15.1