- •Введение
- •1. Основные понятия. Количественная мера информации
- •Понятие информации
- •1.2. Количественная мера информации для равновозможных событий
- •1.3. Количественная мера информации для разновозможных событий (сообщений). Энтропия источника дискретных (цифровых) сообщений
- •1.4. Свойства энтропии источника дискретных сообщений
- •1.5. Энтропия источника совместных сообщений
- •1.6. Определение количества информации источника дискретных сообщений при неполной достоверности результатов опыта
- •1.7. Некоторые свойства количественной меры информации источника дискретных сообщений при неполной достоверности результатов опыта
- •1.9. Избыточность источника сообщений
- •1.10 Энтропия источника при наличии коррелятивных связей между двумя соседними символами
- •Контрольные вопросы
- •2. Информационные характеристики непрерывных (аналоговых) источников информации
- •2.1. Понятие о непрерывных (аналоговых) источниках информации
- •2.2. Энтропия непрерывного источника информации. Количество информации в одном замере непрерывной случайной величины
- •2.3. Примеры вычисления энтропии непрерывных источников информации
- •2.4. Количество информации, содержащееся в одном замере непрерывной случайной величины при неполной достоверности результатов измерения
- •Контрольные вопросы
- •3. Понятие о пропускной способности каналов и скорости передачи информации
- •3.1. Пропускная способность дискретного (цифрового) канала
- •3.2. Пропускная способность непрерывных (аналоговых) каналов
- •3.3. Определение пропускной способности непрерывного канала
- •3.4 Основные теоремы Шеннона
- •3.5 Энтропия источника при наличии коррелятивных связей между двумя соседними символами
- •4 Помехоустойчивое кодирование
- •Коды с обнаружением и исправлением ошибок. Код хемминга
- •Исправляющая способность кода хемминга
- •Контрольные вопросы
- •Библиографический список
- •Лабораторная работа №4 код хемминга
- •1.1. Понятие информации ...................................................................... 1
- •Контрольная работа № 1
- •Контрольная работа № 2
Контрольная работа № 2
1. Полная и приведенная энтропия источника непрерывных сообщений. Математическое описание.
2. Вычислить энтропию источника с равномерным законом распределения непрерывной случайной величины
2.1. Задать нижнюю (а) и верхнюю (b) границы диапазона L изменения случайной величины:
а = сумма чисел месяца и дня рождения;
b = год рождения.
2.2. Вычислить полную энтропию при следующих погрешностях измерения непрерывной величины:
2.2.1. Δ = 0.1.
2.2.2. Δ = 0.01.
2.2.3. Δ = 0.001.
3. Вычислить энтропию источника с нормальным законом распределения случайной величины
3.1. Задать среднеквадратическое отклонение случайной величины
,
где L – диапазон, определенный в п. 2.1.
3.2. Вычислить полную энтропию при погрешностях измерения, заданных в п.п. 2.2.1-2.2.3.
-
Сравнить значения энтропий, полученные в п. 2.2 и п. 3.2. Объяснить различие.
Задачи
1. Вычислить энтропию ансамбля событий:
1.1 Р(х1)= 1/2; Р(х2)=1/4; Р(x3)= 1/4.
Н(х)=-(1/2*log1/2+1/4*log1/4+1/4*log1/4)= -[1/2*(-1)+1/4*(-2)+1/4*(-2)] =1/2+1/2+1/2=1.5 дв.ед.<1.58 дв.ед. при равновероятных событиях Pi=1/3
1.2 Р(х1)= 1/2; Р(х2)=1/8; Р(x3)= 1/8, P(х4)=1/4.
H(x)=1/2+3/8+3/8+1/2=14/8 дв.ед.<2 дв.ед. при равновероятных событиях P(хi)=1/4.