Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Задачи

.pdf
Скачиваний:
146
Добавлен:
01.05.2014
Размер:
333.97 Кб
Скачать

 

ЗАДАЧНИК (2003 год.)

 

1. Информация, энтропия и кодирование источника.

ли:

1.1. Что произойдет с энтропией ансамбля значений дискретной переменной ξ , ес-

 

а) к ξ прибавить одно и то же число;

 

б) умножить ξ на одно и то же число;

 

в) подвергнуть ξ монотонному преобразованию;

 

г) возвести ξ в квадрат?

1.2.Ансамбль состоит из М равновероятных сообщений. Что произойдет с его энтропией, если какие-то два сообщения объединить в одно? Изменится ли ответ, если в исходном ансамбле сообщения не равновероятны?

1.3.Ансамбль состоит из M различных фиксированных чисел. Что произойдет с энтропией этого ансамбля если:

а) вычесть из каждого числа само число; б) умножить каждое число на свой коэффициент; в) поделить каждое число на себя;

г) умножить каждое число на π /10 и взять синус полученного значения?

1.4.Имеется ансамбль, состоящий из M сообщений. Что произойдет с его энтропией, если наименее вероятное сообщение удалить, распределив его вероятность поровну между оставшимися?

1.5.Ансамбль состоит из M различных фиксированных целых чисел. Что произойдет с энтропией этого ансамбля, если:

а) удвоить каждое из чисел; б) возвести каждое число в свою (специфическую для каждого числа) степень;

в) разделить каждое число на собственный логарифм; г) умножить каждое число на π /2 и взять косинус полученного значения?

1.6.Каким может быть минимальный объем ансамбля, энтропия которого составляет 3,5 бит?

1.7.В игре ведущий должен определить, кто из 20 других участников прячет «фант». Ведущему разрешается задавать вопросы, ответы на которые даются только в форме «Да» или «Нет». Все двадцать участников игры знают о местонахождении фанта и им запрещено лгать. Каково минимальное число вопросов, необходимое для обнаружения фанта? Каким образом должны формулироваться эти вопросы?

1.8. Можно ли построить префиксный код, в котором: а) 7 слов имеют длину 3 и 3 слова - длину 4; б) 6 слов – длину 3 и 4 – длину 4; в) 5 слов – длину 3 и 7 – длину 4?

1.9. Можно ли построить неравномерный двоичный однозначно декодируемый код для ансамбля из M сообщений, так чтобы i - е кодовое слово имело длину i ?

1.10. Ансамбль из 32 сообщений закодирован неравномерным двоичным кодом средней длины 6,1 бит. Является ли такой код наилучшим с точки зрения экономности? Каким значением ограничена средняя длина оптимального кода для данного ансамбля?

1.11. Закодировать кодом Шеннона–Фано и Хаффмена ансамбль из шести сообщений, имеющих вероятности 0.2, 0.04, 0.11, 0.5, 0.06 и 0.09. Определить среднюю длину кодового слова и сравнить ее с энтропией ансамбля. Дать объяснение полученным результатам.

1.12. Закодировать кодом Хаффмена ансамбли из шести сообщений, имеющих ве-

роятности 0,6; 0,15; 0,1; 0,08; 0,06; 0,01 и 0,4; 0,1; 0,3; 0,05; 0,07; 0,08. Найти среднюю длину кодового слова и сравнить ее с энтропией соответствующего ансамбля. Дать объяснение полученным результатам.

1.13. Имеется источник без памяти с энтропией 4,95 бит. Какую длину блока букв следует взять, чтобы при неравномерном кодировании на каждую букву в среднем затрачивалось не более 5 двоичных символов?

1.14. Закодировать с использованием алгоритма Шеннона–Фано и Хаффмена ансамбль из M сообщений, первое из которых имеет вероятность 32 63, а каждое последую-

щее – вероятность в два раза меньшую вероятности предыдущего.

1.15. Дискретный источник без памяти генерирует одну из своих букв каждую секунду. Кодер способен выдавать один двоичный символ с интервалом 0,1 сек. Пригоден ли такой кодер для равномерного кодирования состояний источника, если его энтропия на букву равна 9 бит? Каким будет ответ в случае энтропии источника на букву, равной 11 бит?

1.16. Дискретный источник вырабатывает ансамбль X из 6–ти сообщений. Первое из них появляется с вероятностью 0.5, второе – 0.25, а остальные – равновероятны. Каково максимальное количество информации, содержащееся в сообщении источника?

1.17. Заданы два независимых дискретных источника. Первый из них выдает ансамбль сообщений X , аналогичный задаче 1.16. Второй вырабатывает ансамбль Y , также состоящий из 6-ти сообщений, два из которых характеризуются вероятностью 0.25, а остальные – равновероятны. Найти максимальное и минимальное количество информации пары (x, y) , где x X , а y Y .

1.18. Найти энтропию источников ансамблей X и Y , заданных в задаче 1.17 и энтропию ансамбля XY . Не конструируя непосредственно код, определить для всех трех ансамблей точное значение длины оптимального неравномерного кода?

1.19. Как изменится энтропия источника из задачи 1.16, если: а) первое и последнее сообщения поменять местами; б) четыре равновероятных сообщения объединить в одно;

в) удалить второе сообщения, а вероятность его появления равномерно поделить между четырьмя последними?

1.20. Дискретный источник имеет 8 различных состояний. Существует ли для данного источника какой-нибудь префиксный код, содержащий четыре кодовых слова с длинами – 1, 2, 3 и 3 соответственно? Какова может быть минимальная длина 4-го кодового

2

слова, если первые три имеют длину, равную 1, 2 и 3?

1.21. Закодировать кодом Шеннона–Фано и Хаффмена ансамбль сообщений из задачи 1.16. Определить среднюю длину слова каждого из кодов. Одинаковы ли они? Если это так, то почему?

1.22. Найти код Шеннона–Фано для ансамбля из 6-ти состояний с вероятностями, равными 0.3, 0.3, 0.2, 0.1, 0.06 и 0.04 соответственно. Существует ли код, лучший для данного ансамбля?

1.23. Заданы два независимых источника. Первый формирует двоичный ансамбль X с вероятностью принятия одного состояния, равной 0.6. Второй источник характеризуется ансамблем Y , состоящий из трех состояний, два из которых имеют вероятности 0.5 и 0.25 соответственно. Построить код Шеннона–Фано и Хаффмена для ансамбля XY .

1.24. Некоторый источник без памяти формирует ансамбль из 16 букв с энтропией, равной 2 бит. Какую часть от возможного числа блоков длины 20 составляют высоковероятные блоки? Какова длина хорошего равномерного кода, кодирующего блоки указанной длины? Во сколько раз можно выиграть в длине слова при равномерном оптимальном кодировании блоков букв данной длины?

1.25. Источник генерирует одну из 2100 последовательностей в течение интервала времени, равного 1 секунде. Во сколько раз может быть уменьшена скорость передачи в сравнении с не кодированным случаем, если доля высоковероятных последовательностей

в их общей совокупности приблизительно равна 280 ?

 

 

 

1.26. Источник генерирует сообщения {x1, x2 , } с вероятностным распределени-

ем, подчиняющимся геометрическому распределению вида:

p

i

= p(1p)i1,1 i ≤ ∞

. Оп-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ределить энтропию данного источника. Уточнить результат для случая p =1/ 2 .

 

 

 

 

 

1.27. Заданы два источника с ансамблями

 

X и Y . Новый источник образован ком-

бинированием

первых

двух

как

XY , т.е.

всеми

возможными

парами

вида

(x, y), x X , y

Y . Доказать, что H (XY ) H ( X )

+ H (Y ) .

 

 

 

 

 

 

 

 

 

 

1.28. Заданы N источников с ансамблями сообщений

X1, X 2 , , X N . Образован

новый

источник

X1X 2 X N ,

формирующий

все возможные

слова

длины

N

вида

(x1, x2

, , xN ), xi

Xi

, i =1, 2, , N . Обобщить результат предыдущей задачи,

доказав,

что H (X1X 2 X N )

H (X1) + H ( X 2 ) +…+ H ( X N ) .

 

 

 

 

 

 

 

 

 

 

1.29.

Источник

генерирует

M

сообщений

 

с

 

вероятностями

вида

1

1

1

1

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2 ,

4 ,

8 , ,

 

 

,

 

 

. Найти среднюю длину слова кода, полученного при использо-

2M

1

2M 1

вании алгоритмов Шеннона–Фано и Хаффмена и сравнить их с энтропией источника.

 

1.30.Обобщить алгоритмы Шеннона–Фано и Хаффмена на случай троичных кодов.

1.31.Базовый алгоритм Лемпеля–Зива использует словарь с 16 фразами. Закодиро-

вать двоичный поток данных 0010010010000111101011110010011011111110, составляя словарь и показывая получаемый поток кодовых символов. Сравнить исходное и полу-

3

ченное число бит и объяснить результат сравнения.

1.32. Размер словаря равен 16 фразам. Источник двоичный. Осуществить декодирование двоичного потока, который закодирован по базовому алгоритму Лемпеля–Зива: 0001000100000110011100110010110010101010100110100011001010011011110010.

2. Взаимная информация, остаточная энтропия, информационная емкость.

Энтропия двоичного ансамбля h( p)

p

0.00

0.01

0.02

0.03

0.04

0.05

0.06

0.07

0.08

0.09

0.0

 

0.08079

0.14144

0.19439

0.24229

0.28640

0.32744

0.36592

0.40218

0.43647

0.1

0.46900

0.49992

0.52936

0.55744

0.58424

0.60984

0.63431

0.65770

0.68008

0.70147

0.2

0.72193

0.74148

0.76017

0.77801

0.79504

0.81128

0.82675

0.84146

0.85545

0.86872

0.3

0.88129

0.89317

0.90438

0.91493

0.92482

0.93407

0.94268

0.95067

0.95804

0.96480

0.4

0.97095

0.97650

0.98145

0.98582

0.98959

0.99277

0.99538

0.99740

0.99885

0.99971

0.5

1.00000

 

 

 

 

 

 

 

 

 

2.1. Два игральных кубика бросаются независимо друг от друга. Какова взаимная информация между двумя следующими событиями:

на первом кубике выпадает четное число, а сумма на двух – нечетна;

четыре на первом кубике и восемь в сумме:

четыре на первом кубике и одиннадцать в сумме?

2.2.Наблюдателя интересует количество выпаданий "гербов" при независимом бросании двух стандартных монет, однако ему доступна лишь информация о четности или нечетности этого числа. Сколько бит информации о числе "гербов" содержится в указанных наблюдениях? Сколько бит недостает наблюдателю для исчерпывающего знания количества "гербов"?

2.3.На выходе дискретного канала появляются символы, алфавит которых состоит из L различных неотрицательных чисел. Как изменится ненулевая средняя взаимная информация между выходом и входом канала, если

а) ко всем значениям на выходе прибавить одно и то же число; б) все значения на выходе умножить на одно и то же число;

в) все значения на выходе возвести в одну и ту же ненулевую степень; г) вычесть из каждого числа само число?

2.4.На выходе дискретного канала появляются символы, алфавит которых состоит из L положительных различных чисел. Как изменится ненулевая средняя взаимная информация между выходом и входом канала, если

а) все выходные значения прологарифмировать; б) у всех выходных значений заменить знак на противоположный;

в) заменить все выходные значения экспонентами их квадратов; г) разделить каждое выходное значение на себя?

2.5.На вход канала равновероятно поступают нули и единицы. Дайте полное сравнение по остаточной энтропии (энтропии входа после получения выходного наблюдения) двух моделей – обычного ДСК и ДСК со стиранием, в котором присутствуют только стирания, но не ошибки.

2.6.Найти среднюю взаимную информацию между входом и выходом ДСК со сти-

4

ранием, если входные символы равновероятны, вероятность искажения символа в канале равна , а вероятность стирания – q . Конкретизировать результат для случая p = q = 0,15.

2.7. В нестационарном ДСК без памяти вероятность ошибки на символ со временем монотонно убывает от p0 до нуля. Как изменяется во времени средняя взаимная информация входного и выходного алфавитов, если входные двоичные символы равновероятны (изобразить график зависимости с точным указанием начального и предельного значений)? (Рассмотреть два случая: p0 ≤ 0,5 и p0 > 0,5 ).

2.8. По ДСК без памяти со стиранием передаются n символов подряд. Вероятности ошибки и стирания равны соответственно p и q. Какова вероятность того, что из n символов m будут стерты, а k – искажены?

2.9. Можно ли передавать по каналу ансамбль из 17 сообщений с ошибкой декодирования pe = 0.1, если остаточная неопределенность ансамбля переданных сообщений составляет 0,9 бит?

2.10. Дискретный канал является двоичным по входу, т.е. на его вход поступают двоичные символы. Каков верхний предел информационной емкости такого канала?

2.11. Информационная емкость дискретного канала C = 1 бит/симв. Можно ли при скорости кода в 1,1 бит/симв. рассчитывать на достижение вероятности ошибки, равной

0,01?

2.12. Возможна ли передача со скоростью R = 2.5 бит/симв и вероятностью ошибки декодирования pe = 0.05 по каналу, имеющему информационную емкость, 2 бит/симв?

2.13. Найти взаимную информацию между событиями A и B , если: а) A и B – несовместные события;

б) после наблюдения события A вероятность B увеличивается в два раза; в) после наблюдения события B вероятность A уменьшается в восемь раз.

2.14. Одно из двух равновероятных сообщений пересылается по каналу с помехами. В результате действия помех каждое из передаваемых сообщений может быть перепутано с другим с вероятностью 1/32. Найти среднюю взаимную информацию между входным и выходным ансамблями канала.

2.15. Имеется два двоичных ансамбля U = {A, B} и V = {C, D} . Если происходит событие A, вероятность события D уменьшается в два раза. Если же происходит B, в два раза уменьшается вероятность события C. Определить среднюю взаимную информацию между указанными ансамблями, если вероятности событий A и B одинаковы.

2.16.Найти условную энтропию ансамблю U относительно ансамбля V , где U и V определены в задаче 2.15.

2.17.Найти энтропию ансамбля UV , состоящего из всех возможных пар вида (u, v), u U , v V , где U и V определены в задаче 2.15.

2.18. Энтропия

ансамбля UV , состоящего из

всех возможных пар вида

(u, v), u U , v V , где U

и V

двоичные ансамбли, равна 2

битам. Определить среднюю

 

 

5

 

взаимную информацию между ансамблями U и V .

2.19.Доказать, что для двух равновероятных сообщений неравенство Фано обращается в равенство.

2.20.Для двоичного кода максимально возможная скорость составляет 1 бит/симв. Какова максимальная скорость кода, выраженная в бит/симв, для троичного, четверичного

иD –ичного кода?

2.21.Возможна ли передача со скоростью R = 1.0 бит/симв. и вероятностью ошибки декодирования pe = 0.1 по каналу, имеющему информационную емкость 0.4 бит/симв?

2.22.При вероятности ошибки декодирования, не превышающей значения 0.05, какое значение скорости кода несомненно является недостижимым для канала, имеющего информационную емкость, равную 0.5 бит/симв?

2.23.Доказать, что для любого двоичного канала неравенство Фано обращается в

равенство.

2.24.Дискретный канал, для которого вероятность перепутывания любого входного символа с любым неправильным одна и та же независимо от значения символов, называется симметричным. Доказать, что для любого симметричного канала неравенство Фано обращается в равенство.

2.25.Определить необходимые условия обращения неравенства Фано в равенство.

3. Прямая теорема кодирования для канала. Вычисление пропускной способности.

3.1. В некотором дискретном канале при использовании наилучшего кода длины n гарантируется вероятность ошибочного декодирования в пределах 25 , однако допустимой является вероятность ошибки, не большая 103 . Какой должна быть минимальная длина кода, необходимая для выполнения указанного требования, при неизменной скорости передачи?

3.2.При неизменной скорости за счет некоторого увеличения длины кода становится возможным обеспечить вероятность ошибочного декодирования, равную четвертой степени вероятности ошибки, соответствующей начальной длине кода. Насколько возрастет длина кода, если считать коды наилучшими?

3.3.При некоторой скорости функция надежности канала E(R) = 0.01 бит/симв, что

позволяет при помощи наилучшего кода передавать 2100 сообщений со средней ошибкой декодирования pe = 210 . Каково фактическое значение R ?

3.4.Предполагается использовать код длиной 199 символов для передачи M = 2200 сообщений по ДСК с вероятностью искажения символа, равной p = 1010 . Возможно ли это?

3.5.Вероятность искажения символа (переходная вероятность) в ДСК p = 0,12 .

6

Существует ли код, обеспечивающий ошибку декодирования, меньшую чем 102 , при скорости R = 0,6 бит/симв?

3.6. Вероятность искажения символа (переходная вероятность) в ДСК p = 0,11.

Существует ли код, обеспечивающий ошибку декодирования, меньшую, чем 103 , при скорости R = 0.5 бит/симв?

3.7. Вероятность искажения символа (переходная вероятность) в ДСК p = 0,89 .

Существует ли код, обеспечивающий ошибку декодирования, меньшую, чем 104 , при скорости R = 0,5 бит/симв?

3.8. Доказать, что информационная емкость асимметричного канала, представлен-

ного на рисунке, больше информационной емкости ДСК при одинаковых значениях пере-

ходной вероятности p < 0.5 . Дать интуитивное объяснение данному факту. Сохранится ли

подобное преимущество при p

1?

 

0

1

0

 

p

 

 

 

1

 

1- p

1

 

 

 

3.9. Определить информационную емкость канала с двоичным входом и троичным выходом (симметричный канал со стиранием без искажения символов), представленного на рисунке. Конкретизировать значение информационной емкости канала для случая q = 0 и q = 1 . Объяснить полученные результаты.

1- q

0 0 q

?

1

q

1

 

1- q

3.10. Имеются два ДСК без памяти (второй - со стиранием), описываемых графами на рисунке. Вероятность ошибки в первом совпадает с вероятностью стирания во втором. Сопоставьте эти ДСК по информационной емкости. Укажите границу (если таковая имеется) между областями, где один канал выигрывает у другого.

 

 

1- p

 

 

 

 

 

1- q

 

 

0

 

 

0

 

0

 

0

 

 

 

 

 

 

 

 

 

q

 

 

p

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Ф

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p

 

 

 

 

 

q

 

 

 

1

 

 

1

 

 

 

 

 

 

 

 

1

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1- p

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1- q

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3.11. Доказать, что информационная емкость двоичного несимметричного канала без памяти со стиранием (см. рисунок) в нетривиальных случаях больше информационной емкости обычного ДСК без памяти, имеющего вероятность ошибки p.

7

 

 

1- p

 

 

0

 

 

0

 

 

 

 

p

 

 

 

 

 

?

 

 

 

 

p

1- p

 

 

1

 

1

 

 

 

 

3.12. При равновероятных входных символах определить информационную ем-

кость ДСК со стиранием, задаваемого графом на рисунке. Какой из каналов является

предпочтительным с точки зрения информационной емкости: традиционный ДСК с

p = 0.15 или ДСК со стиранием с параметрами

p = 0.05 и q = 0.1 ? Вывод сделать на ос-

новании расчетов.

 

 

 

0

1- p - q

 

0

 

 

p

q

 

?

 

p

q

 

 

1

 

 

1

1- p - q

 

 

 

 

3.13. Что больше – информационная емкость ДСК с вероятностью ошибки 0,2 или ДСК со стиранием, у которого вероятность стирания 0,2 и вероятность ошибки 0,1 (см. рис. к задаче 3.12)?

3.14. Что происходит с относительной энтропией, когда: а) к случайной величине добавляется константа; б) случайная величина умножается на константу?

3.15.Три случайные величины x, y, z попарно не коррелированны и имеют равные дисперсии, причем x и y распределены нормально, а z - равномерно. Какая из двух величин u = x + y или v = x + z обладает большей относительной энтропией?

3.16.Суммируется пара случайных величин, имеющих одинаковые дисперсии. В каком из следующих случаев суммарная величина будет иметь наибольшую относительную энтропию:

а) суммируемые величины имеют равномерное распределение и коэффициент корреляции 0,5,

б) суммируемые величины нормальны и некоррелированы, в) суммируемые величины нормальны и имеют коэффициент корреляции 0,5?

г) суммируемые величины нормальны и имеют коэффициент корреляции -0,5?

3.17.Одна из случайных величин, имеющих одинаковые дисперсии, вычитается из другой. Когда разностная величина будет иметь наибольшую относительную энтропию, если исходные величины:

а) имеют равномерное распределение и коэффициент корреляции, равный -0,5, б) нормальны и некоррелированы, в) нормальны и имеют коэффициент корреляции 0,5,

г) нормальны и имеют коэффициент корреляции -0,5?

8

3.18. Три случайные величины x, y, z имеют равные дисперсии и коэффициенты корреляции друг с другом, равные -0,5. При этом x и y распределены нормально, а z - равномерно. Какая из двух величин u = x - y или v = x - z обладает большей относительной энтропией?

3.19. Чему равна относительная энтропия случайной величины, имеющей равномерную ПВ шириной 2a?

3.20. С какой предельной скоростью (бит/с) можно безошибочно передавать сообщения в АБГШ–канале с неограниченной полосой, если белый шум имеет одностороннюю спектральную плотность N0 = 108 Вт/Гц, а мощность сигнала Pc = 70 мкВт?

3.21. Каким должен быть энергопотенциал АБГШ–канала с неограниченной полосой, чтобы обеспечивалась принципиальная возможность безошибочной передачи сообщений со скоростью r = 14 Мбит/с?

3.22. Определить минимально необходимое отношение сигнал–шум, обеспечивающее безошибочную передачу данных со скоростью 10 Мбит/с в АБГШ–канале шириной 2,5 МГц.

3.23. В гауссовском канале отношение мощностей сигнала и шума равно 15. Во сколько раз следует расширить полосу канала, чтобы его информационная емкость увеличилась в 2,5 раза ? (Спектральная плотность мощности шума постоянна в любой полосе.)

3.24. Доказать, что максимум относительной энтропии случайной величины, определенной на интервале [a, b], равен log(b a) . При каком распределении плотности вероятности случайной величины достигается этот максимум?

3.25. Случайная величина равномерно распределена на интервале [a, b] . Определить ее относительную энтропию и доказать, что любая случайная величина с отличным законом распределения, заданным на указанном интервале, имеет меньшую величину относительной энтропии.

3.26. Переменная на входе канала без памяти принимает два возможных значения: a и a . Аддитивный шум, действующий в канале, имеет равномерную плотность вероятности на интервале [a, a] . Определить информационную емкость канала.

3.27. Переменная на входе канала без памяти имеет плотность распределения вероятности, заданную на интервале [a, a] . В канале действует аддитивный шум, равновероятно принимающий одно из двух возможных значений: a и a . Определить информационную емкость канала и плотность распределение входной величины, обеспечивающую данную емкость.

3.28.Найти минимальную полосу, обеспечивающую теоретически возможной безошибочную передачу со скоростью 1 Мбит/с при отношении энергии на бит к спектральной плотности гауссовского шума 10 дБ. Возможно ли данное качество передачи при использовании бинарной ФМ.

3.29.Найти минимальную полосу, обеспечивающую теоретически возможной безошибочную передачу со скоростью 1 Мбит/с при отношении энергии на бит к спектральной плотности гауссовского шума 0 дБ.

9

3.30.Найти минимальное отношение энергии на бит к спектральной плотности гауссовского шума, являющееся теоретически достаточным для безошибочной передачи со скоростью 1 Мбит/с при полосе сигнала в 200 КГц.

3.31.Найти минимальное отношение энергии на бит к спектральной плотности гауссовского шума, являющееся теоретически достаточным для безошибочной передачи со скоростью 1 Мбит/с при полосе сигнала в 1 МГц.

4. Прямая теорема кодирования для канала с неограниченной и конечной полосой.

4.1. По гауссовскому каналу с неограниченной полосой передаются кодированные ортогональными сигналами длительности 1 мс блоки сообщений со скоростью 2,5 кбит/с. Вероятность ошибки декодирования при этом близка к 2 10-3. При какой предельной скорости принципиально возможна сколь угодно достоверная передача по этому каналу?

4.2. Решить ту же задачу, если скорость передачи равна 6,4 кбит/с, а длительность блока – 100 мс. Осуществима ли передача с указанными параметрами?

4.3. Какой должна быть полоса АБГШ–канала, чтобы по нему можно было передавать сообщения, закодированные функциями Уолша, со скоростью 3/32 бит на один символ (чип) функции Уолша при задержке в выдаче решения не более 10мкс?

4.4. Какой может быть наименьшая задержка в АБГШ–канале с неограниченной полосой, чтобы по нему можно было передавать сообщения ортогональным кодом со скоростью 16 кбит/с с гарантией удержания вероятности ошибки в пределах 2-9, если односторонняя спектральная плотность шума равна 1,4 10-8Вт/Гц, а мощность сигнала - 250 мкВт? Можно ли считать такой канал реализуемым?

4.5. Необходимо удержать вероятность ошибки в АБГШ–канале на уровне 2-9. Каким должен быть энергопотенциал канала, чтобы при полосе в 250 кГц оказалась возможной работа на скорости 2500 бит/с.?

4.6. Шумовая температура приемника - 1000°К, мощность сигнала в точке приема – 10-4 мкВт. Канал – гауссовский, с неограниченной полосой. При какой длительности кодируемого блока можно с гарантией рассчитывать на вероятность ошибки декодирования 2 10-3, если скорость передачи равна: а) 2кбит/с; б) 6,4кбит/с? Какой будет ширина спектра сигнала в каждом из этих случаев?

4.7. Необходимо передавать информацию по АБГШ–каналу с неограниченной полосой со скоростью r = 3600 бит/с. Какой должна быть минимальная мощность сигнала, чтобы при длительности кодового слова T=10 мс удержать вероятность ошибки в преде-

лах 215 , если односторонняя спектральная плотность шума N0 =1,4 10-7Вт/Гц?

4.8.Необходимо передавать информацию по АБГШ–каналу с неограниченной полосой со скоростью 60 бит/с. Какой должна быть минимальная мощность сигнала, чтобы при длительности кодового слова T=25мс удержать вероятность ошибки в пределах 2-10, если односторонняя спектральная плотность белого шума N0 = 1,4 10-7Вт/Гц?

4.9.Какой может быть наименьшая задержка в выдаче решения в АБГШ–канале с

10

полосой ∆ƒ =6,4МГц, чтобы по нему можно было передавать сообщения, закодированные ортогональным кодом, со скоростью 3/32 бит/симв?

4.10.Энергопотенциал АБГШ–канала с неограниченной полосой равен 28.5 дБ/Гц. Какой может быть максимальная скорость передачи, чтобы при длительности кодового слова в T =25 мс вероятность ошибки не превышала значения 2-9 (2-10)?

4.11.Энергопотенциал АБГШ–канала с неограниченной полосой равен 38.5 дБ/Гц. Какой может быть максимальная скорость передачи, чтобы при длительности кодового слова в T =10 мс вероятность ошибки не превышала значения 2-15?

4.12.Сколько ортогональных сигналов потребуется для передачи сообщений по АБГШ–каналу с неограниченной полосой со скоростью 3600 бит/с , если пропускная способность канала равна 10 кбит/с, а требуемая вероятность ошибки – не более 2-7?

4.13.Энергопотенциал АБГШ–канала с неограниченной полосой равен 38.5 дБ/Гц. При какой полосе возможна передача по нему со скоростью 2500 бит/с и вероятностью ошибки не более 2-9?

4.14.Какой должна быть полоса АБГШ–канала, чтобы по нему можно было передавать сообщения, закодированные ортогональным кодом, со скоростью 0,1 бит/симв при задержке в выдаче решения не более 10мкс?

4.15.Какой может быть наименьшая задержка в выдаче решения в АБГШ–канале с полосой ∆ƒ =6МГц, чтобы по нему можно было передавать сообщения, закодированные ортогональным кодом, со скоростью R = 0,1 бит/симв?

4.16.В некотором дискретном канале при длине кодового слова, равной 40, гарантируется удержание средней вероятности ошибки декодирования в пределах 2-5. До какого значения следует увеличить длину слова, чтобы иметь уверенность в удержании средней вероятности ошибки в пределах 10-3?

4.17.(3.3.) При некоторой скорости функция надежности канала E(R) = 0,01

бит/симв, что позволяет при помощи наилучшего кода передавать 2100 сообщений со средней ошибкой декодирования pe = 210 . Каково значение R ?

4.18. Для некоторого дискретного канала верхняя граница максимальной вероятности ошибки при фиксированной скорости, меньшей критической, равна 4 2-0.015n. Указать верхнюю границу средней (в пределах кода) вероятности ошибки при вдвое меньшей скорости, если значение функции надежности в нуле равно 0,025.

4.19.(3.1.) В некотором дискретном канале при использовании наилучшего кода длины n гарантируется вероятность ошибочного декодирования в пределах 25 , однако допустимой является вероятность ошибки, не большая 103 . Какой должна быть минимальная длина кода, необходимая для выполнения указанного требования, при неизменной скорости передачи?

4.20.(3.2.) При неизменной скорости за счет некоторого увеличения длины кода становится возможным обеспечить вероятность ошибочного декодирования, равную четвертой степени вероятности ошибки, соответствующей начальной длине кода. Насколько возрастет длина кода, если считать коды наилучшими?

11

4.21. Пусть существует код, гарантирующий для данного дискретного канала удержание средней вероятности ошибки декодирования слов кода длины 40 в пределах 103 . В каких пределах можно наверняка удержать максимальную вероятность ошибки декодирования слов кода длины 32 при сохранении прежней скорости передачи?

4.22. Для некоторого дискретного канала верхняя граница средней (в пределах кода) вероятности ошибки декодирования равна 2-0,015n при скорости ниже критической. Найти верхнюю границу максимальной (в пределах кода) вероятности ошибки при вдвое меньшей скорости, если значение функции надежности в нуле составляет 0,025.

4.23. Вероятность ошибки в ДСК без памяти p = 0,64. Определить характерные точки функции надежности: начальную ординату, критическую скорость, пропускную способность.

4.24. Требуется поддерживать среднюю (в пределах кода) вероятность ошибочного декодирования на выходе ДСКБП не хуже 2-10. Вероятность ошибки на символ в канале p=0,36, скорость передачи 0,01 бит/симв. При какой минимальной длине кода с гарантией обеспечивается выполнение названного требования?

4.25. Как ведет себя функция надежности ДСКБП при p0 и p1/2. Чем объяснить, что в первом случае надежность падает с ростом скорости - ведь помехи в канале отсутствуют?

4.26. Требуется удержать максимальную вероятность ошибки декодирования на выходе ДСКБП в пределах 4·2-10 при скорости 0,01 бит/симв. Какой должна быть минимальная длина кода, если критическая скорость равна 0,014 бит/симв.?

4.27. Пропускная способность ДСКБП равна 0,057 бит/симв. При какой длине кода можно гарантированно обеспечить среднюю (в пределах кода) вероятность ошибки 2-10, если скорость передачи равна критической?

4.28. Возможно ли в ДСК с вероятностью ошибки на символ p=0,36 получение максимальной вероятности ошибки декодирования не больше 2-7 при длине слова n=500 и скорости передачи R=0,01бит/симв?

4.29. Имеется модем, способный передавать 56000 двоичных символов в секунду, и двоичный симметричный канал, искажающий в среднем каждый сотый символ. Какую максимальную скорость передачи информации без ошибок можно ожидать при практическом использовании данной системы?

4.30. Вероятность искажения символа в ДСКБП p равна 0,36, а скорость передачи – критической. Какой должна быть длина кода для гарантированного получения максимальной (в пределах кода) вероятности ошибочного декодирования не хуже 4 210 ?

4.31. Постройте функцию надежности для ДСК, в котором полностью отсутствуют ошибки. Как выглядит при этом экспонента вероятности ошибки? Чем объясняется ее ход с учетом отсутствия ошибок в канале?

12

5. Введение в теорию блоковых кодов.

5.1. Двоичный код длины 9 используется для передачи 32 сообщений. Сколько проверочных символов должен иметь данный код? Какова скорость кода в бит/симв? Сколько имеется «запрещенных» векторов?

5.2. Четверичный код длины 6 используется для передачи 64 сообщений. Сколько проверочных символов должен иметь данный код? Какова скорость кода в бит/сим.? Сколько имеется «запрещенных» векторов?

 

5.3. Имеются два вектора X1 = (1001101)

и X2

= (1100110) . Определить расстоя-

ние по Хэммингу и Евклиду между указанными векторами, если

 

 

 

 

а) двоичные символы передаются с помощью бинарной ФМ (т.е. прямоугольными

в основной полосе импульсами противоположной полярности s1(t)

и s2

(t)

длительности

и амплитуды A );

 

 

 

 

 

 

 

 

 

 

б) двоичные символы передаются с помощью частотной манипуляции (т.е. 0 и 1

отображаются соответственно двумя прямоугольными ортогональными в полосе пропус-

кания импульсами s1

(t)

и s2 (t) длительности

и амплитуды A ).

 

 

 

 

5.4. Двоичный блоковый код характеризуется кодовым расстояние по Хэммингу

d = 7 . Определить кодовое расстояние по Евклиду для указанного кода, если

 

а) двоичные символы передаются с помощью бинарной ФМ (т.е. прямоугольными

в основной полосе импульсами противоположной полярности s1(t)

и s2

(t)

длительности

и амплитуды A );

 

 

 

 

 

 

 

 

 

 

б) двоичные символы передаются с помощью частотной манипуляции (т.е. 0 и 1

отображаются соответственно двумя прямоугольными ортогональными в полосе пропус-

кания импульсами s1

(t)

и s2 (t) длительности

и амплитуды A ).

 

 

 

 

5.5. Четыре сообщения передаются по ДСК посредством блокового кода длины

n = 5 :

U = {10101, 00011, 11000, 01110}. На

выходе

канала

наблюдается вектор

Y = (00110)

. В какое кодовое слово будет декодирован данный вектор наблюдения? В ка-

кое кодовое слово будет декодирован вектор наблюдения

Y = (11011) ? Чему равно кодо-

вое расстояние кода U ? Какова кратность исправляемых этим кодом ошибок?

 

5.6. Код объема

M = 8 и длины

n = 7 содержит кодовые слова

X1 = (0000000) ,

X2 = (1101001) , а также все циклические сдвиги слова

X2 . Определить кратность ис-

правляемых и обнаруживаемых ошибок данного кода.

 

 

 

 

 

 

5.7. Каким должно быть минимальное кодовое расстояние блокового кода, чтобы

он мог исправлять любые ошибки кратности t1,

а также обнаруживать ошибки кратности

t2 , (t2 > t1) .

 

 

 

 

 

 

 

 

 

 

 

5.8. Существует некоторый код, способный исправлять любые пятикратные и об-

наруживать любые девятикратные ошибки. Какова была бы исправляющая способность

кода, если бы весь ресурс был направлен на исправление ошибок? Какова была бы обна-

руживающая способность кода, если бы весь ресурс был направлен на обнаружение оши-

бок?

 

 

 

 

 

 

 

 

 

 

 

 

5.9.

Может

ли

существовать

совершенный

двоичный

код

с

числом слов

 

 

 

 

 

13

 

 

 

 

 

 

M= 2, M = 7, M = 72, M = 120 ?

5.10.Вывести границы Хэмминга и Гильберта для недвоичных (q-ичных) кодов.

5.11.Может ли существовать двоичный код длины n = 9 со скоростью R = 2 / 3 , исправляющий любые однократные ошибки?

5.12.Может ли существовать двоичный код длины 10 со скоростью 0,5, обнаруживающий любые четырехкратные ошибки?

5.13.Может ли существовать двоичный код длины n = 7 со скоростью R = 4 / 7 , обнаруживающий любые трехкратные ошибки?

5.14.При каком максимальном значении скорости R наверняка существует двоичный код длины 6, обнаруживающий любые двукратные ошибки?

5.15.При каком максимальном значении скорости R наверняка существует двоичный код длины 8, исправляющий любые однократные ошибки?

5.16.Существует ли двоичный код длины n = 7 со скоростью R = 4 / 7 , обнаруживающий любые двукратные ошибки? В случае положительного ответа приведите пример такого кода.

5.17.Существует ли двоичный код длины n = 8 со скоростью R = 3 / 8 , исправляющий любую однократную и обнаруживающий любую двукратную ошибки?

5.18.Может ли существовать двоичный код из 17 слов длины 8, обнаруживающий любые ошибки кратности три или менее? При какой минимальной длине слов код с этими числом слов и обнаруживающей способностью может существовать?

щие t

5.19. Могут ли существовать двоичные коды больших длин n (n→∞

), исправляю-

n/6 ошибок при скорости R 2/5?

 

 

(n → ∞

5.20. Каким значением

ограничена предельная скорость кода

большой

длины

) , исправляющего n /10

ошибок?

 

 

 

5.21. При какой скорости наверняка существуют коды большой длины (n→∞

), об-

наруживающие n/4 ошибок?

 

 

 

щие t

5.22. Могут ли существовать двоичные коды больших длин n (n→∞

), исправляю-

n/8 ошибок при скорости R 0,18?

 

 

5.23. Двоичный код длины n = 32 , содержащий k = 26 информационных символов, исправляет любую однократную ошибку и обнаруживает любую двукратную ошибку. Какова величина выигрыша от кодирования данным кодом в АБГШ–канале при использовании декодирования с «мягкими» решениями?

5.24. Двоичный код длины n = 64 , содержащий k = 7 информационных символов, исправляет любую ошибку кратности до 15-ти и обнаруживает любую ошибку кратности до 16-ти включительно. Какова величина выигрыша от кодирования данным кодом в АБГШ–канале при использовании декодирования с «мягкими» решениями?

14

5.25. Расширенный код Хэмминга, исправляющий любую однократную и обнару-

живающий любую двукратную ошибки, существует для длин вида n = 2m , где m – целое.

Любое кодовое слово содержит k = 2m m информационных символов. Определить вы-

игрыш от кодирования этим кодом в АБГШ–канале с «мягкими» решениями в асимптоти-

ческом случае (т.е. при n

).

5.26. Для длин вида n = 2m , m N, существуют коды Рида–Маллера, исправляю-

щие ошибки кратности n / 4

1 и обнаруживающие ошибки кратности n / 4 . Любое кодо-

вое слово переносит k = m +1 бит информации. Определить выигрыш от кодирования подобным кодом в АБГШ–канале с «мягкими» решениями.

5.27.Может ли существовать совершенный двоичный код с числом слов

M = 3, M = 5, M = 6, M = 120 ?

5.28.Существует ли двоичный код длины 8 со скоростью 1/ 2 , исправляющий любые однократные и обнаруживающий любые двукратные ошибки? Положительный ответ подкрепите примером.

5.29. При какой скорости наверняка существуют коды большой длины (n→∞

), ис-

правляющие n/8 ошибок?

 

5.30. При какой скорости наверняка существуют коды большой длины (n→∞

), об-

наруживающие n/8 ошибок?

 

6. Линейные коды (часть I).

6.1. Какие из следующих множеств является полем с обыкновенными арифметическими операциями сложения и умножения:

а) множество целых числе; б) множество рациональных дробей с четным числителем и знаменателем;

в) множество чисел вида a 10 + b , где a, b – рациональные числа; г) множество чисел вида a3 10 + b , где a, b – рациональные числа.

6.2.Какие из следующих чисел могут быть порядками конечных полей: 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 23, 24, 25, 31, 32, 35, 36, 63, 64, 67, 100, 101, 121, 144, 169, 256? В чем принципиальное отличие GF(31) и GF(32)?

6.3.Построить таблицы сложения и умножения элементов поля GF(7) .

6.4.Вычислить (2 +1)2 + (3 4)2 (2 + 4) в поле GF(3) и GF(5) .

6.5.Рассмотрим множество, состоящее из всех n –элементных двоичных векторов, на первой и последней позициях которых расположены нули. Является ли данное множество векторным пространством? Если является, определить размерность пространства и построить его базис.

6.6.Задано двоичное векторное пространство размерности три, элементы которого представляют собой вектора вида (a, b, c) , где a, b, c GF(2) . Построить три различных

15

векторных подпространства размерности два.

6.7. Векторное пространство над некоторым простым полем содержит 729 элементов. Какое поле используется для построения векторного пространства? Какова размерность векторного пространства? Может ли оно содержать подпространство, состоящее из 25 элементов? Перечислите все возможные по числу элементов варианты подпространств, содержащиеся в заданном векторном пространстве.

6.8. В векторном пространстве VF , состоящем из всех 6-ти компонентных векторов, выбраны следующие четыре: (100101), (010111), (110011) и (000001). Какова размерность наименьшего подпространства пространства VF , содержащего указанные вектора?

6.9. Все ненулевые слова линейного (31,5) кода имеют один и тот же вес, равный 16. Сколько подобных слов содержит код? Какова скорость и корректирующая способность кода (кратность исправляемых и обнаруживаемых ошибок)? Каков выигрыш от кодирования данным кодом при использовании мягких решений?

6.10. Линейный код имеет порождающую матрицу

100111 G = 010011 .

001101

Определить скорость, минимальное расстояние кода и выигрыш от кодирования.

6.11. Могут ли быть словами некоторого линейного кода с кодовым расстоянием d = 5 вектора вида (1101110001), (0010011110), (1110101000) ?

6.12. Линейный код имеет порождающую матрицу

111001 G = 110100 .

100111

Привести матрицу к канонической форме, соответствующей систематическому коду, и найти скорость и минимальное расстояние кода.

6.13. Порождающая матрица линейного кода имеет вид

100101 G = 010110 .

001111

Построить проверочную матрицу H и убедиться, что код является нуль–пространством матрицы H .

6.14. Проверочная матрица двоичного линейного кода имеет вид

10100 H = 11010 ,11001

Построить порождающую матрицу кода, определить скорость, кодовое расстояние и выигрыш от кодирования при использовании мягких решений.

16

6.15. Проверочная матрица линейного кода имеет вид

 

 

 

 

1 0 0 1 1

0

 

 

 

 

H = 0 0 1 1 1 1 .

 

 

 

 

0 1 1 0 1

0

 

 

 

 

 

 

 

 

Определить скорость кода, кодовое расстояние и выигрыш от кодирования при декодиро-

вании с мягкими решениями.

 

 

 

6.16. В проверочной подматрице B канонической порождающей

матрице

G = [Ik

 

B] две проверочные строки одинаковы. Что можно сказать о матрице

G

с точки

 

зрения корректирующей способности порождаемого кода? Каким образом в данном слу-

чае может быть повышена кратность исправляемых ошибок?

 

 

6.17. В поле GF(7) вычислить соотношение 38410 + 37 .

6.18. Заданы три кодовых слова вида (1110), (0111), (1111) . Каким будет минимальный (т.е. имеющий наименьшее число слов) линейный код, содержащий указанные слова? Построить порождающую и проверочную матрицы и найти кодовое расстояние.

6.20. Проверочная матрица двоичного кода имеет вид

1 0 0 1 1 0 1

H = 0 0 1 1 1 1 1 .

0 1 1 0 1 0 0

 

 

Какой кратности ошибки может исправлять и обнаруживать данный код? Возможно ли

повысить корректирующую способность кода при сохранении прежних значений длины и

скорости? Если да, то каким образом?

 

6.21. Двоичный код имеет проверочную матрицу вида

H =

1 0 0 1

.

0 1 1 1

 

 

6.19. Сколько кодовых слов содержит линейный q –ичный (n, k) код? Существует

ли линейный троичный код, состоящий из 82 слов? Каков будет ответ о 81 кодовом слове?

Сколько слов содержится в 16–ичном линейном (15, 10) коде?

Каково значение кодового расстояния данного кода? Какой кратности ошибки он может исправлять и обнаруживать? Каким образом можно расширить проверочную матрицу, чтобы получить (5,2) код, исправляющий любую однократную ошибку?

6.22.Простейшим нетривиальным линейным двоичным кодом является (n, n 1) код с простой проверкой на четность, в котором последний (единственный проверочный) символ образован как сумма по модулю два всех n 1 информационных. Требуется:

а) построить порождающую и проверочную матрицы; б) определить кодовое расстояние; в) кратность исправляемых и обнаруживаемых ошибок;

г) асимптотический выигрыш от кодирования при использовании мягких решений.

6.23.Какой из следующих двоичных кодов удовлетворяет границе Синглтона:

код с повторением;

(n,n 1) код с простой проверкой на четность;

без избыточный код, т.е. (n,n) код;

(5,2) код, исправляющий однократную ошибку?

17

6.24. Существует ли (1024, 754) код, обнаруживающий ошибки кратности до 271 включительно?

7.Линейные коды (часть II).

7.1.Содержит ли код Хэмминга кодовое слово, состоящее из одних единиц? Содержит ли код Хэмминга кодовые слова веса n 1 , n 2 и n 3 ?

7.2.Вычислить выигрыш от кодирования кодом Хэмминга при использовании «мягких» решений и построить зависимость величины выигрыша от длины кода. Найти асимптотическую величину выигрыша от кодирования (т.е. при n → ∞ ).

7.3. Вычислить выигрыш от кодирования симплексным кодом и кодом РидаМаллера при использовании «мягких» решений и построить зависимость величины выигрыша от длины кода. Найти асимптотическую величину выигрыша от кодирования (т.е. при n → ∞ ).

7.4.Найти все слова (7,4) кода Хэмминга и построить его весовой спектр (т.е. какие значения принимает вес кодового слова и сколько раз?)

7.5.Являются ли строки проверочной матрицы (2m 1, 2m m 1) кода Хэмминга (m > 2) словами этого кода?

7.6.Некоторый систематический код задан проверочной матрицей H . Построить проверочную матрицу Hрасширенного кода. Обратить особое внимание на то, чтобы матрица Hпорождала систематический расширенный код.

7.7.Может ли расширенный (т.е. образованный добавлением общей проверки на четность) код Хэмминга длины n (n = 2m ) содержать вектора веса (n 3), (n 5) и (n 11) ?

7.8.Какой из кодов – совершенный или расширенный код Хэмминга – гарантирует больший выигрыш от кодирования при одинаковом числе информационных символов?

7.9.Является ли укорочение кода полезным с точки зрения повышения выигрыша от кодирования при декодировании с мягкими решениями?

7.10.Возможно ли построить линейный (1023, 1012) код, исправляющий любую однократную и обнаруживающий любую двукратную ошибку? Если «да», как построить его наиболее простым способом?

7.11.Некоторый линейный код, характеризующийся кодовым расстоянием, равным 7, и содержащий слово из одних единиц, укорачивается на 6 символов. Содержит ли укороченный код слово, состоящее из всех единиц?

7.12.Имеет ли смысл осуществлять расширение симплексного кода или кода Рида–

Маллера?

7.13.Линейный код сформирован путем присоединения к симплексному коду «единичного» вектора. Какова скорость и кодовое расстояние вновь образованного кода?

18

Удовлетворяют ли параметры нового кода границе Плоткина, как это имело место в случае исходного кода?

7.14. Может ли смежный класс для кода Хэмминга иметь лидером вектор веса два? Что будет в случае расширенного кода Хэмминга?

7.15. Содержит ли укороченный код Хэмминга лидеров смежных классов веса больше единицы?

7.16. Проверочная матрица (7,4) кода Хэмминга задана в своей простейшей форме, т.е. в виде двоичных чисел разрядности три в возрастающем порядке. В какой кодовый вектор будет декодировано слово (0001111) , если исказились второй и четвертый символы?

7.17. Определить значения лидеров смежных классов укороченного (6,3) кода Хэмминга.

7.18.Практично ли использовать синдромное декодирование симплексных кодов и кодов Рида–Малера большой длины?

7.19.Построить порождающую и проверочную матрицы (15,11) кода Хэмминга и (16,11) расширенного кода Хэмминга.

7.20.Доказать, что любой расширенный код не может быть совершенным.

7.21.Существует ли линейный (64,57) код, обнаруживающий трехкратные ошибки?

7.22.Существует ли двоичный (100,92) код, исправляющий любую однократную и обнаруживающий любую двукратную ошибки?

7.23.Останется ли совершенным код после укорочения?

7.24.Содержит ли симплексный код слово, состоящее из одних единиц?

7.25.Доказать, что ни симплексный код, ни код Рида–Малера не являются совер-

шенными.

7.26.Что представляет собой код Рида–Малера, укороченный на один символ?

7.27.В какой вектор декодируется (111111111111111) слово (15,11) кода Хэмминга при искажении третьего, восьмого и десятого символа?

7.28.Двоичный (23,12) код Голея является совершенным и характеризуется кодовым расстоянием, равным 7. Привести веса лидеров всех его смежных классов.

7.29.Могут ли вектора ошибки (1100000) и (1011110) принадлежать одному и тому же смежному классу (7,4) кода Хэмминга?

7.30.Могут ли вектора ошибки (1000000000000000) и (1011111111111111) принад-

лежать одному и тому же смежному классу (16,5) коду Рида–Малера?

19

8. Циклические коды.

 

8.1. Вычислить результат операций (z3

+ z2 +1)(z 4 +1)(z2 +1)2 (z3 1)+ z6 + z 2

над

полем: а) GF(2) , б) GF(3) .

 

 

 

 

 

8.2. Раскрыть скобки в выражении (z +1) p

над GF( p) , если

 

 

 

а)

p = 2 ;

 

 

 

 

 

б)

p = 3 ;

 

 

 

 

 

в)

p = 5 ;

 

 

 

 

 

г)

– произвольное простое число.

 

 

 

 

z 2

8.3. Найти частное и остаток от деления многочлена z5

+ z3 + 1 на многочлен

+ z + 1

над полем GF(2) .

 

 

 

 

8.4.Найти частное и остаток от деления многочлена (z3 +1)2 на многочлен (z +1)4 над полем GF(2) .

8.5.Найти частное и остаток от деления многочлена (z +1)8 на многочлен (z2 +1)4 над полем GF(2) .

8.6.Вычислить (z5 + z4 +1) mod (z3 + z +1) для полиномов над GF(2) .

8.7.Вычислить (z5 + z4 +1) mod (z3 + z2 +1) для полиномов над GF(2) .

8.8. Является ли полином z3

+ z 2 + 1 неприводимым над полем:

а) GF(2) ?

 

б) GF(3) ?

 

8.9. Является ли полином

f (z) = z 4 + z3 + z 2 + z +1 примитивным над полем

GF(2) ?

 

8.10. Циклический (7,3)–код содержит кодовое слово U1 = (1010011) . Какой вид имеют остальные слова этого кода? Определить порождающий и проверочный полиномы данного кода.

8.11. Циклический (7,4)–код содержит два кодовых слова: U1 = (1010011) и U2 = (1111111) . Какой вид имеют остальные слова этого кода? Определить порождающий и проверочный полиномы данного кода.

(5,2)? 8.12. Существует ли (5,3) двоичный циклический код? Что можно сказать о коде (7,2)? 8.13. Существует ли (7,5) двоичный циклический код? Что можно сказать о коде

20