- •Введение
- •1. Основные понятия. Количественная мера информации
- •Понятие информации
- •1.2. Количественная мера информации для равновозможных событий
- •1.3. Количественная мера информации для разновозможных событий (сообщений). Энтропия источника дискретных (цифровых) сообщений
- •1.4. Свойства энтропии источника дискретных сообщений
- •1.5. Энтропия источника совместных сообщений
- •1.6. Определение количества информации источника дискретных сообщений при неполной достоверности результатов опыта
- •1.7. Некоторые свойства количественной меры информации источника дискретных сообщений при неполной достоверности результатов опыта
- •1.9. Избыточность источника сообщений
- •1.10 Энтропия источника при наличии коррелятивных связей между двумя соседними символами
- •Контрольные вопросы
- •2. Информационные характеристики непрерывных (аналоговых) источников информации
- •2.1. Понятие о непрерывных (аналоговых) источниках информации
- •2.2. Энтропия непрерывного источника информации. Количество информации в одном замере непрерывной случайной величины
- •2.3. Примеры вычисления энтропии непрерывных источников информации
- •2.4. Количество информации, содержащееся в одном замере непрерывной случайной величины при неполной достоверности результатов измерения
- •Контрольные вопросы
- •3. Понятие о пропускной способности каналов и скорости передачи информации
- •3.1. Пропускная способность дискретного (цифрового) канала
- •3.2. Пропускная способность непрерывных (аналоговых) каналов
- •3.3. Определение пропускной способности непрерывного канала
- •3.4 Основные теоремы Шеннона
- •3.5 Энтропия источника при наличии коррелятивных связей между двумя соседними символами
- •4 Помехоустойчивое кодирование
- •Коды с обнаружением и исправлением ошибок. Код хемминга
- •Исправляющая способность кода хемминга
- •Контрольные вопросы
- •Библиографический список
- •Лабораторная работа №4 код хемминга
- •1.1. Понятие информации ...................................................................... 1
- •Контрольная работа № 1
- •Контрольная работа № 2
3.4 Основные теоремы Шеннона
Основная теорема Шеннона для дискретного канала без шумов
Если поток информации, вырабатываемый источником, равен
, (3.46)
где ε может быть как угодно малым, то всегда можно найти такой способ кодирования, который обеспечит передачу всех сообщений, вырабатываемых источником, причем скорость передачи информации будет равна
Если же , то невозможно будет обеспечить длительную передачу всех сообщений источника.
Основная теорема Шеннона для дискретного канала с шумами
Если поток информации, вырабатываемый источником, равен
, (3.46а)
где ε сколь угодно мало, то существует способ кодирования, при котором все сообщения, вырабатываемые источником, могут быть переданными, а вероятность ошибочного опознания любого переданного сообщения может быть как угодно малой, т.е.
, (3.47)
где рР – вероятность неправильного опознания любого переданного сообщения, η – как угодно малая положительная величина. Обратное утверждение этой теоремы состоит в том, что если
, то не существует способа кодирования, обеспечивающего передачу всех сообщений с малой вероятностью ошибки.
В общем случае выполнение (3.46а) может быть достигнуто с помощью кодирования достаточно длинных последовательностей сообщений. Если МХ – число сообщений в одной кодируемой последовательности, то чем меньше ε в (3.46а) и η в (3.47), теми большим должно быть число МХ, т.е. тем длиннее должна быть кодируемая последовательность.
Основная теорема Шеннона для непрерывных каналов
Если ε-энтропия источника непрерывных сообщений, определяющая количество информации, вырабатываемое источником в единицу времени (поток информации непрерывного источника) при заданной оценке g верности воспроизведения равна
, (3.48)
где α как угодно мало, то существует метод передачи, при котором все сообщения вырабатываемые источником, могут быть переданы, а верность воспроизведения при этом как угодно близка к g.
Обратное утверждение этой теоремы говорит о том, что такая передача невозможна, если
.
ε-энтропия определяется как наименьшее значение количества информации в принятой случайной величине Y относительно переданной случайной величине Х при заданной верности произведения g:
, (3.49)
где ε – приемлемо малая величина.
3.5 Энтропия источника при наличии коррелятивных связей между двумя соседними символами
Полученные ранее выражения для энтропии дискретного источника сообщений справедливы в случае, когда все сообщения независимы.
Рассмотрим источник, у которого имеют место коррелятивные связи между двумя соседними символами. Вероятность появления символа xi зависит лишь от того, какой символ был выработан до этого.
Для описания такого источника необходимо задать распределение вероятностей p(xi) и вероятности переходов (условная вероятность) p(xi|xk) или вероятности всех возможных пар символов p(xi, xk).
Нижеприведенное выражение описывает связь между этими вероятностями
. (3.50)
Если коррелятивные связи имеются между двумя соседними символами, то энтропия источника равна
(3.51)
Сравним энтропии источников с независимыми событиями и с коррелятивными связями между двумя соседними сообщениями.
Вероятности каждого из четырех сообщений равны:
p(x1)=1/2, p(x2)=1/4, p(x3)= p(x4)=1/8.
Для независимых событий
.
Пусть между двумя соседними символами имеются коррелятивные связи, которые описываются таблицей
xixj |
p(xi, xj) |
p(xi | xj) |
xixj |
p(xi, xj) |
p(xi | xj) |
x1x1 |
13/32 |
13/16 |
x3x1 |
0 |
0 |
x1x2 |
3/32 |
3/16 |
x3x2 |
0 |
0 |
x1x3 |
0 |
0 |
x3x3 |
0 |
0 |
x1x4 |
0 |
0 |
x3x4 |
1/8 |
1 |
x2x1 |
1/32 |
1/8 |
x4x1 |
1/16 |
1/2 |
x2x2 |
1/8 |
1/2 |
x4x2 |
1/32 |
1/4 |
x2x3 |
3/32 |
3/8 |
x4x3 |
1/32 |
1/4 |
x2x4 |
0 |
0 |
x4x4 |
0 |
0 |
По заданным вероятностям появления символов p(xi) и вероятностям пар импульсов p(xi, xj) из (3.50) определяются условные вероятности
, представленные в третьем и шестом столбцах таблицы.
Используя (3.51), получим , т.е. при наличии коррелятивных связей между сообщениями источника энтропия уменьшается.