![](/user_photo/2706_HbeT2.jpg)
- •1. Теория информации
- •1.1 Теорема Котельникова
- •1.2 Квантование сигнала по уровню
- •2. Мера информации
- •2.1 Мера информации по Шеннону
- •2.2 Энтропия дискретного ансамбля сообщений
- •2.3 Энтропия непрерывного ансамбля сообщений
- •2.4 Энтропия непрерывного ограниченного ансамбля
- •2.3 Количество взаимной информации
- •2.3.1 Дискретный канал передачи информации
- •2.3.2 Непрерывный канал передачи информации
- •2.3.3 Эпсилон-энтропия (ε-энтропия)
- •Кодирование источника информации
- •3.1 Метод кодирования равномерным кодом
- •3.2 Метод кодирования Шеннона-Фано
- •3.3 Метод кодирования Хафмана
- •3.4 Теорема оптимального кодирования источника независимых сообщений.
- •4 Канал связи
- •4.1 Скорость передачи информации и пропускная способность канала связи
- •4.2 Канал без шумов
- •4.3 Канал с шумами
- •4.4 Непрерывный канал связи
- •4.5 Теорема Шеннона о пропускной способности частотно ограниченного канала
- •5. Кодирование в канале
- •5.1 Систематические коды
- •5.1.1 Образование систематического кода
- •5.1.2 Систематический код Хемминга
- •5.2 Циклические коды
- •5.2.1 Обнаружение однократной ошибки
- •5.2.2 Исправление однократной ошибки
- •1. Теория информации 1
3.1 Метод кодирования равномерным кодом
Чтобы уменьшить избыточность, содержащуюся в ансамбле Xисточника информации, создается новый ансамбльYсимволов, энтропия которой близка к максимальному значению. Затем с помощью элементов ансамбляYсоставляются сообщения из ансамбляX.
Рассмотрим модель передачи информации
с использованием кодера и декодера
источника сообщений. Источник генерирует
сообщения из ансамбля
,
состоящего из элементов
.,
образующих полную группу событий и
появляющихся с некоторыми вероятностями
.
Кодер источника использует ансамбльY, состоящий из двух
символов - (0, 1).
Существуют различные методы кодирования.
Одним из них является метод, когда все
элементы
ансамбляX представлены
одним и тем же числом элементов
ансамбля
Y. Такое кодирование
называется равномерным. Число возможных
сообщений, которые кодируются двоичным
разрядным кодом, равно
.
Например, при кодировании четырёхразрядным
кодом можно закодировать 16 сообщений.
Кодовое дерево (граф ) изображено на
рисунке 3.2.
Однако число кодируемых сообщений может
быть меньше, чем
.
Тогда используются не все коды и возникает
избыточность при кодировании равномерным
кодом. С другой стороны, не учитываются
вероятности реализации сообщений
,
составляющих ансамбль
.
Пример 3.2. равномерного кодирования
приведён в таблице 3.2. Все элементы
ансамбляXрасположены
в первой колонке. Во второй колонке
записаны вероятности реализаций
соответствующих сообщений.
В третьей колонке количество информации,
содержащееся в сообщении
.
В четвёртой колонке представлены
двоичные коды, соответствующие сообщениям
.
В пятой колонке записаны условные
вероятности
появления символа «1» при реализации
соответствующего сообщения
,
где
- общее число символов, употребляемых
для кодирования
-го
сообщения,
- число «1» в
-ом
сообщении.
Для того чтобы закодировать двоичным
кодом девять сообщений необходимо
четыре двоичных разряда, (;m= 4 ).
-
Таблица 3.2
1
2
3
4
5
Анс-ль
Вер.
Коды
Условн. вер.
0.20
2.32193
0001
1/4
0.2
2.32193
0010
1/4
0.19
2.39593
0011
2/4
0.15
2.73697
0100
1/4
0.10
3.32193
0101
2/4
0.08
3.64386
0110
2/4
0.06
4.05889
0111
3/4
0.01
6.64386
1000
1/4
0.01
6.64386
1001
2/4
2.79465
Кодовое дерево, отображающее коды при равномерном кодировании, представлено на рисунке 1.2.
Максимальная энтропия ансамбля X , в соответствии с теорией, равна
=
3.16993
.
Энтропия ансамбля Xравна=2.79465
.
Коэффициент избыточности ансамбля Xравен
=
=
0.881615 ,
коэффициент сжатия ансамбля Xравен
=0.118385.
Рассмотрим
ансамбль
.
Максимальная энтропия ансамбляYравна
= 1
.
Используя
формулу полной вероятности, вычисляется
вероятность
реализации символа «1» при кодировании
элементов ансамбляX
‘символами ансамбля Y.
=
0.375.
Вероятность реализации символа «0» равна соответственно
=0.625.
Количество информации, содержащееся в каждом символе ансамбля Yравно соответственно
1.41504
,
0.678072
.
Энтропия ансамбля Yравна
=
0.954434
.
Соответственно коэффициент сжатия и коэффициент избыточности будут равны
= 0.954434,
=0.045566
Из cравнения коэффициентов сжатия и коэффициентов избыточности ансамблейXиYвидно, произошло увеличение коэффициента сжатия и уменьшение избыточности ансамбляY. Относительные величины равны соответственно
= 1.0826
,
= 2.59809.