Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
МР к ЛР 2.1а рус.doc
Скачиваний:
1
Добавлен:
14.07.2019
Размер:
133.12 Кб
Скачать

Лабораторная работа 2.1а

ИНФОРМАЦИОННЫЕ ХАРАКТЕРИСТИКИ ИСТОЧНИКОВ СООБЩЕНИЙ

1 Цель работы

1.1 Изучение информационных характеристик источников сообщений.

1.2 Приобретение навыков проведения расчетов информационных характеристик дискретных и непрерывных источников сообщений.

2 Ключевые положения

2.1 Информационные характеристики источников дискретных сообщений (дискретных источников сообщений).

Источник дискретных сообщений вырабатывает сообщения, состоящие из отдельных знаков, число которых конечно. Под знаком понимают символы, буквы, слова, отдельные фразы и т.п.

Объем алфавита источника МАколичество различных знаков, используемых источником для построения сообщений.

Количество информации I(ak), дв. ед. (или бит), в знаке (сообщении) ak, вероятность появления которого P(ak), вычисляется

I(ak) = – log 2P(ak). (1)

Энтропия H(A) источника сообщений A – это среднее количество информации в одном знаке. Если знаки сообщений независимы, то энтропия вычисляется как математическое ожидание

H(A) = – . (2)

Энтропия, как и информация, всегда неотрицательная величина и достигает максимального значения

Hmax(А) = log2 MА, (3)

если знаки независимые и равновероятные.

Избыточность источника сообщений – это свойство источника выдавать информацию бóльшим числом знаков, нежели можно было бы. Наличие избыточности источника сообщений приводит к уменьшению его энтропии.

Коэффициент избыточности источника сообщений характеризует относительное уменьшение энтропии источника по сравнению с ее максимальным значением

Кизб = . (4)

Производительность источника сообщений, Rи, бит/с, – это среднее количество информации, выдаваемой источником за 1 с

Rи = Н(А)ср, (5)

где Тср – средняя длительность одного знака источника.

2.2 Информационные характеристики источников непрерывных сообщений (непрерывных источников сообщений).

Дифференциальная энтропия h(A) источника непрерывных сообщений A вычисляется по формуле

h(A) = – , (6)

где p(a) – плотность вероятности сообщения a(t).

Дифференциальная энтропия достигает максимального значения, если распределение вероятностей сообщения гауссовское

hmax(A) = log2 , (7)

где σ2 – дисперсия сообщения a(t).

Эпсилон-энтропия Hε(A), дв.ед./отсчет, – это минимальное среднее количество информации в одном отсчете сообщения при заданной допустимой погрешности его приближенного представления ,

где ;

– приближенное представление сообщения.

По определению эпсилон-энтропия определяется

Hε(A) = h(A) – max h(ε), (8)

где h(ε) – дифференциальная энтропия погрешности ε(t).

Максимальное значение h(ε) имеет место при гауссовском распределении ε(t), и расчетная формула для эпсилон-энтропии имеет вид

, (9)

где – дисперсия погрешности ε(t).

Коэффициент избыточности источника непрерывных сообщений вычисляется по формуле (4) при подстановке соответствующих значений дифференциальных энтропий h(A) и hmax(A).

Эпсилон-производительность Rи  источника непрерывных сообщений вычисляется по формуле (5), в которую необходимо подставить значение эпсилон-энтропии Hε(A), а Тср принять равным интервалу дискретизации по Котельникову.