- •1 Основные сведения об электросвязи
- •1.1 Информация, сообщение, электрический сигнал
- •1.2 Система электросвязи
- •2 Сигналы электросвязи
- •2.1 Классификация сигналов электросвязи
- •2.2 Характеристики сигналов электросвязи
- •3 Способы представления сигналов
- •3.1 Математическая модель сигнала
- •3.2 Временная диаграмма сигнала
- •3.3 Спектральная диаграмма сигнала
- •3.4 Векторная диаграмма сигнала
- •4 Спектры сигналов
- •4.1 Виды спектров
- •4.2 Первичные сигналы электросвязи
- •4.2.1 Телефонные сигналы
- •4.2.2 Сигналы звукового вещания
- •4.2.3 Факсимильные сигналы
- •4.2.4 Телевизионные сигналы
- •4.2.5 Сигналы телеграфии и передачи данных
- •5 Спектральное представление периодических сигналов
- •5.1 Ряд Фурье
- •5.2 Разложение в ряд Фурье пппи
- •6 Спектральное представление непериодических сигналов
- •6.1 Интегральные преобразования Фурье
- •6.2 Определение спектра опи
- •7 Представление непрерывных сигналов рядом котельникова
- •7.1 Теорема Котельникова
- •7.2 Содержание теоремы Котельникова
- •7.3 Использование теоремы Котельникова
- •8 Случайные величины и их характеристики
- •8.1 Основные понятия
- •8.2 Случайное событие
- •8.3 Случайная величина
- •8.4 Нормальный закон распределения
- •9 Сигналы и помехи как случайные процессы
- •9.1 Основные понятия
- •9.2 Статистические характеристики сп
- •9.3 Вероятностные модели реальных сигналов
- •10 Классификация и характеристики каналов связи
- •10.1 Классификация каналов связи
- •10.2 Характеристики каналов связи
- •11 Искажения и помехи в канале
- •11.1 Искажения в канале
- •11.2 Помехи в канале
- •12 Информационные характеристики источников сообщений»
- •12.1 Количественная мера информации
- •12.2 Информационные характеристики источника дискретных сообщений
- •12.3 Информационные характеристики источников непрерывных сообщений
- •13 Информационные характеристики каналов связи
- •13.1 Скорость передачи информации по каналу
- •13.2 Пропускная способность канала
- •13.3 Основная теорема Шеннона
- •14 Нелинейные элементы
- •14.1 Исходные понятия и определения
- •14.2 Классификация нэ
- •14.3 Параметры нэ
- •15 Аппроксимация характеристик нэ
- •15.1 Общие понятия
- •15.2 Полиномиальная аппроксимация
- •15.2 Кусочно-линейная аппроксимация
- •15.3 Аппроксимация с помощью трансцендентных функций
- •16 Анализ спектра отклика нэ на гармоническое воздействие
- •16.1 Методы спектрального анализа
- •16.2 Слабонелинейный режим работы нэ
- •16.3 Существенно нелинейный режим работы нэ
- •17 Бигармоническое и полигармоническое воздействие на нелинейный элемент
- •17.1 Бигармоническое воздействие
- •17.2 Полигармоническое воздействие
- •18 Амплитудная модуляция
- •18.1 Общие понятия о модуляции
- •18.2 Амплитудная модуляция
- •18.4 Спектр ам сигнала
- •18.6 Балансная и однополосная модуляции
- •19 Частотная модуляция
- •19.1 Угловая модуляция
- •19.2 Частотная модуляция
- •19.3 Гармоническая чм
- •20 Фазовая модуляция
- •20.1 Фазовая модуляция
- •20.2 Гармоническая фм
- •21 Манипуляция
- •21.1 Виды манипуляции
- •21.2 Двоичная аМн
- •21.3 Двоичная чМн
- •21.4 Двоичная фМн
- •22 Импульсная модуляция
- •22.1 Виды импульсной модуляции
- •22.1 Спектр импульсно-модулированных сигналов
- •22.3 Повторная модуляция
- •23 Цифровая модуляция
- •23.1 Аналого-цифровое преобразование
- •23.3 Кодер ацп икм взвешивающего типа
- •24 Кодирование сигналов с предсказанием
- •24.1 Кодирование с предсказанием
- •24.2 Дикм
- •24.3 Дельта-модуляция
- •25 Линейный цифровой фильтр
- •25.1 Цифровая обработка сигналов
- •25.2 Цифровой фильтр
- •26 Рекурсивные и нерекурсивные цифровые фильтры
- •26.1 Особенности формирования выходных сигналов
- •26.2 Нерекурсивный цф
- •26.3 Рекурсивный цф
12 Информационные характеристики источников сообщений»
12.1 Количественная мера информации
В теории и технике связи при определении количества информации не учитывается содержательная сторона сообщений. В основу измерения количества информации положены вероятностные характеристики передаваемых сообщений, которые отражают степень их неопределенности (неожиданности).
Количество информации в отдельно взятом сообщении определяется величиной, обратной вероятности сообщения и вычисляется в логарифмических единицах:
,
где - основание логарифма. Определяет единицу измерения количества информации:
- - десятичная единица (дит);
- - натуральная единица (нат);
- - двоичная единица (бит).
1 БИТ – количество информации, содержащееся в сообщении, вероятность которого 0,5. Такая единица на практике наиболее удобна вследствие широкого использования двоичных кодов в вычислительной технике и связи.
Если речь идет о зависимых сообщениях, то количество информации в сообщении:
,
где - условная вероятность сообщения при условии, что перед ним появились .
12.2 Информационные характеристики источника дискретных сообщений
Рассмотрим дискретный источник, выдающий последовательность сообщений из некоторого ансамбля возможных сообщений , где , - объем алфавита.
Рассмотрим дискретный источник, выдающий последовательность сообщений из некоторого алфавита.
Среднее количество информации, приходящееся на одно сообщение, выдаваемое дискретным источником, называется энтропией источника:
, .
Для источника независимых сообщений:
.
Для источника зависимых сообщений вводят понятие условной энтропии, которая характеризует среднее количество информации, которое несет последующий символ сообщения, при условии, что уже известен ряд предыдущих.
,
где - вероятность появления при условии, что перед ним появился .
Энтропию рассматривают как меру неопределенности в поведении источника. Чем она выше, тем труднее запомнить (записать) сообщение или передать его по каналу связи.
Основные свойства энтропии:
- для дискретных сообщений она – величина вещественная, ограниченная и положительная;
- равна нулю, если с вероятностью 1 всегда выбирается один и тот же символ;
- максимальна, если все символы источника появляются независимо и с одинаковой вероятностью:
;
- энтропия аддитивна, т. е. Если рассматривать последовательность из сообщений как одно укрупненное сообщение, то энтропия такого источника будет в раз больше энтропии исходного источника.
Избыточность источника дискретных сообщений.
Количественно оценивается коэффициентом избыточности:
.
Она показывает, какая доля максимально возможной при этом алфавите энтропии не используется источником.
Причины избыточности:
- различные вероятности отдельных сообщений;
- наличие статистических связей между сообщениями.
Устранение избыточности сообщения – это задача эффективного кодирования источников дискретных сообщений.
Производительность источника – среднее количество информации, создаваемой источником в единицу времени. Измеряется в бит/с.
,
где - средняя длительность сообщения.