- •Введение
- •1. Основные понятия. Количественная мера информации
- •Понятие информации
- •1.2. Количественная мера информации для равновозможных событий
- •1.3. Количественная мера информации для разновозможных событий (сообщений). Энтропия источника дискретных (цифровых) сообщений
- •1.4. Свойства энтропии источника дискретных сообщений
- •1.5. Энтропия источника совместных сообщений
- •1.6. Определение количества информации источника дискретных сообщений при неполной достоверности результатов опыта
- •1.7. Некоторые свойства количественной меры информации источника дискретных сообщений при неполной достоверности результатов опыта
- •1.9. Избыточность источника сообщений
- •1.10 Энтропия источника при наличии коррелятивных связей между двумя соседними символами
- •Контрольные вопросы
- •2. Информационные характеристики непрерывных (аналоговых) источников информации
- •2.1. Понятие о непрерывных (аналоговых) источниках информации
- •2.2. Энтропия непрерывного источника информации. Количество информации в одном замере непрерывной случайной величины
- •2.3. Примеры вычисления энтропии непрерывных источников информации
- •2.4. Количество информации, содержащееся в одном замере непрерывной случайной величины при неполной достоверности результатов измерения
- •Контрольные вопросы
- •3. Понятие о пропускной способности каналов и скорости передачи информации
- •3.1. Пропускная способность дискретного (цифрового) канала
- •3.2. Пропускная способность непрерывных (аналоговых) каналов
- •3.3. Определение пропускной способности непрерывного канала
- •3.4 Основные теоремы Шеннона
- •3.5 Энтропия источника при наличии коррелятивных связей между двумя соседними символами
- •4 Помехоустойчивое кодирование
- •Коды с обнаружением и исправлением ошибок. Код хемминга
- •Исправляющая способность кода хемминга
- •Контрольные вопросы
- •Библиографический список
- •Лабораторная работа №4 код хемминга
- •1.1. Понятие информации ...................................................................... 1
- •Контрольная работа № 1
- •Контрольная работа № 2
1.10 Энтропия источника при наличии коррелятивных связей между двумя соседними символами
Полученные ранее выражения для энтропии дискретного источника сообщений справедливы в случае, когда все сообщения независимы.
Рассмотрим источник, у которого имеют место коррелятивные связи между двумя соседними символами. Вероятность появления символа xi зависит лишь от того, какой символ был выработан до этого.
Для описания такого источника необходимо задать распределение вероятностей p(xi) и вероятности переходов (условная вероятность) p(xi|xk) или вероятности всех возможных пар символов p(xi, xk).
Нижеприведенное выражение описывает связь между этими вероятностями
. (1.25)
Если коррелятивные связи имеются между двумя соседними символами, то энтропия источника равна
(1.26)
Сравним энтропии источников с независимыми событиями и с коррелятивными связями между двумя соседними сообщениями.
Вероятности каждого из четырех сообщений равны:
p(x1)=1/2, p(x2)=1/4, p(x3)= p(x4)=1/8.
Для независимых событий
.
Пусть между двумя соседними символами имеются коррелятивные связи, которые описываются таблицей
xixj |
p(xi, xj) |
p(xi | xj) |
xixj |
p(xi, xj) |
p(xi | xj) |
x1x1 |
13/32 |
13/16 |
x3x1 |
0 |
0 |
x1x2 |
3/32 |
3/16 |
x3x2 |
0 |
0 |
x1x3 |
0 |
0 |
x3x3 |
0 |
0 |
x1x4 |
0 |
0 |
x3x4 |
1/8 |
1 |
x2x1 |
1/32 |
1/8 |
x4x1 |
1/16 |
1/2 |
x2x2 |
1/8 |
1/2 |
x4x2 |
1/32 |
1/4 |
x2x3 |
3/32 |
3/8 |
x4x3 |
1/32 |
1/4 |
x2x4 |
0 |
0 |
x4x4 |
0 |
0 |
По заданным вероятностям появления символов p(xi) и вероятностям пар импульсов p(xi, xj) из (1.25) определяются условные вероятности
, представленные в третьем и шестом столбцах таблицы.
Используя (1.26), получим , т.е. при наличии коррелятивных связей между сообщениями источника энтропия уменьшается.
2_21/09/18
Контрольные вопросы
-
Дайте определение информационной системы и информационного процесса.
-
Приведите понятие об информации.
-
Количественная мера информации для равновозможных событий (сообщений). Мера Р. Хартли.
-
Укажите недостатки меры Р. Хартли.
-
Энтропия источника дискретных сообщений.
-
Приведите пример вычисления энтропии двоичного канала как источника информации.
-
Поясните свойства энтропии.
-
Энтропия совместных сообщений.
-
Что такое условная энтропия?
-
Как определяется количество информации при неполной достоверности результатов опыта?
-
Приведите некоторые свойства количественной меры информации при неполной достоверности результатов опыта.
-
Приведите пример вычисления количественной меры информации для двоичного канала с помехами.
-
Как оценивается избыточность источника сообщений?
-
Укажите достоинства и недостатки избыточности сообщений.
Лк3