TPI 2 контрольные
.docКонтрольная работа №1
Контрольная работа №2
Задача 10
Статистическое кодирование слов позволяет ещё больше уменьшить среднюю длительность сообщений, так как алфавит источника быстро увеличивается с увеличением длины слова. Число возможных кодовых слов (алфавит источника после объединения букв) определяется выражением m=kn, где k - алфавит букв первичного сообщения. Пусть, например, имеется двоичный источник, дающий буквы а1 и а2 (например, “1” и “0”). При передаче этих букв по каналу связи используются сигналы длительностью э, а .
Рассмотрим пример, когда p(а1)=0,8 и p(а2)=0,2 (если вероятности p(а1) и p(а2) равны между собой, никакое кодирование не может уменьшить среднюю длительность сообщения).
Энтропия
Образуем из элементов а1 и а2 слова из одной буквы(n=1) .
Образуем из элементов а1 и а2 слова из двух букв(n=2), беря различные сочетания из этих букв. Если источник с независимым выбором элементов сообщений, то
p(а1а1)=0,80,8=0,64;
p(а1а2)= p(а2а1)=0,80,2=0,16;
p(а2а2)=0,20,2=0,04.
Применяя к полученным словам кодирование по методу Шеннона‑Фано, получаем кодовое дерево (рис.), из которого видно, что новые комбинации неравномерного кода имеют длительность э, 2э и 3э.
Средняя длина кодового слова
.
Но так как каждое слово содержит информацию о двух буквах первичного сообщения, то в расчёте на 1 букву получаем . Отсюда видно, что средняя длина элемента сообщения сократилась по сравнению с первоначальной в 1/0,78=1,38 раза.
Если усложнить кодирование и использовать n=3, то в этом случае получим . Это – уже почти предел, дальше уменьшать уже нецелесообразно. Чтобы убедиться в этом, рассчитаем производительность источника сообщений для всех трёх случаев.
Энтропия источника
.
При отсутствии статистического кодирования ,
бит/с.
При кодировании слов по две буквы ,
бит/с.
При кодировании по три буквы
бит/с.
Последняя величина близка к предельно возможной величине 1/э.
Задача 14
Структурная схема декодера рекуррентного кода приведена ниже.
Рекуррентный код строится поступивший из канала следующий
Где проверочные символы при кодировании образуются по правилу
,
s - шаг сложения.
Разделим последовательность на информационные и проверочные символы.
Исх. посл.
|
1 |
0 |
0 |
1 |
0 |
1 |
1 |
1 |
0 |
1 |
0 |
1 |
0 |
0 |
0 |
1 |
1 |
1 |
1 |
1 |
1 |
0 |
1 |
1 |
1 |
1 |
1 |
1 |
0 |
0 |
0 |
0 |
A |
1 |
|
0 |
|
0 |
|
1 |
|
0 |
|
0 |
|
0 |
|
0 |
|
1 |
|
1 |
|
1 |
|
1 |
|
1 |
|
1 |
|
0 |
|
0 |
|
B |
|
0 |
|
1 |
|
1 |
|
1 |
|
1 |
|
1 |
|
0 |
|
1 |
|
1 |
|
1 |
|
0 |
|
1 |
|
1 |
|
1 |
|
0 |
|
0 |
Поскольку s=3 то из информационных символов получаем b(k) – последовательность С. Просуммировав по модулю 2 последовательность С с последовательностью В получим исправляющую последовательность y.
A |
1 |
|
0 |
|
0 |
|
1 |
|
0 |
|
0 |
|
0 |
|
0 |
|
1 |
|
1 |
|
1 |
|
1 |
|
1 |
|
1 |
|
0 |
|
0 |
|
C |
|
0 |
|
0 |
|
0 |
|
1 |
|
1 |
|
1 |
|
0 |
|
1 |
|
1 |
|
1 |
|
0 |
|
1 |
|
1 |
|
1 |
|
1 |
|
1 |
B |
|
0 |
|
1 |
|
1 |
|
1 |
|
1 |
|
1 |
|
0 |
|
1 |
|
1 |
|
1 |
|
0 |
|
1 |
|
1 |
|
1 |
|
0 |
|
0 |
y |
|
0 |
|
1 |
|
1 |
|
0 |
|
0 |
|
0 |
|
0 |
|
0 |
|
0 |
|
0 |
|
0 |
|
0 |
|
0 |
|
0 |
|
1 |
|
1 |
Таким образом, декодированная последовательность
1 |
|
0 |
|
0 |
|
1 |
|
0 |
|
0 |
|
0 |
|
0 |
|
1 |
|
1 |
|
1 |
|
1 |
|
1 |
|
1 |
|
0 |
|
0 |
|