Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
УМП ТЭС.doc
Скачиваний:
444
Добавлен:
13.02.2015
Размер:
8.38 Mб
Скачать

Построение кода Шеннона-Фано

При использовании простейшего равномерного кода для кодирования шести элементов алфавита источника потребуется по три двоичных символа на каждую букву сообщения. Если же используется код Шеннона-Фано, то среднее число символов на одну букву

,

что меньше, чем при простейшем равномерном коде и незначительно отличается от энтропии источника.

Кодирование источника дискретных сообщений методом Хаффмена. Рассмотрим еще один подход к кодированию, предложенный Хаффменом, на примере источника сообщений, заданного в таблице 15.2.

Таблица 15.2

Построение кода Хаффмена

Алгоритм построения сжимающего кода Хаффмена включает в себя следующие действия.

1. Все m символов дискретного источника располагаются в таблице в порядке убывания вероятностей.

2. Два символа, имеющих наименьшие вероятности, объединяются в один блок, а их вероятности суммируются.

3. Ветви скобки, идущей к большей вероятности, присваивается символ «1», а идущей к меньшей – символ «0».

4. Операции 2 и 3 повторяются до тех пор, пока не сформируется один блок с вероятностью единица.

5. Записывается код для каждого символа источника; при этом считывание кода осуществляется справа налево.

Среднее число символов на одну букву для полученного кода

.

Таким образом, для данного примера кодирование методами Хаффмена и Шеннона-Фано одинаково эффективно. Однако опыт кодирования показывает, что код Хаффмена часто оказывается экономичнее кода Шеннона-Фано.

Длина кодовой комбинации таких кодов зависит от вероятности выбора соответствующей буквы алфавита: наиболее вероятным буквам сопоставляются короткие кодовые комбинации, а менее вероятным – более длинные.

15.5. Количество информации, переданной по непрерывному каналу

Вместо последовательностей символов для дискретного канала, в непрерывном канале осуществляется передача последовательности непрерывных величин с дискретным или непрерывным временем (в первом случае эти последовательности можно представить в виде импульсов различной величины, появляющихся в определенные моменты времени, а во втором случае как непрерывные функции времени).

Количество передаваемой информации:

, (15.6)

где w(y) – плотность распределения вероятности выходных случайных величин;

w(n) – плотность распределения вероятности помехи (аддитивной);

h(Y) – дифференциальная энтропия сигнала y;

h(Y/X) – условная дифференциальная энтропия сигнала y при известном сигнале x;

Отметим следующие свойства количества информации, передаваемой в непрерывном канале:

I(Y,X) ≥ 0, причём I(Y,X) = 0 тогда, и только тогда, когда вход и выход канала статистически независимы, т.е. w(y / х) = w(y);

I(Y,X) = I(X,Y) – свойство симметрии;

I(Y,X) = ∞, если помехи в канале отсутствуют, т.е. y = x, n = 0

Дифференциальная энтропия h(Y) уже не представляет собой среднее количество информации, выдаваемое источником сигнала (для непрерывного сигнала оно бесконечно). Аналогично h(Y/X) не представляет собой количество информации, потерянной в канале, поскольку эта величина тоже бесконечна. Поэтому дифференциальную энтропию следует понимать лишь формально, как некоторую вспомогательную величину полезную при расчетах.

Если помеха аддитивная y = x + n , то нетрудно показать, что

, (15.7)

где w(n) – плотность распределения вероятности помехи, а h(N) – дифференциальная энтропия помехи.

Выражение для определения количества информации, переданной по непрерывному гауссовскому каналу (нормальный закон распределения вероятностей сигнала и помехи):

. (15.8)

где

(15.9)

Полученное выражение показывает, что пропускная способность гауссовского канала с дискретным временем определяется отношением дисперсии сигнала σс2 к дисперсии помехи σ2. Нередко величину σс2 / σ2 = h2 называют отношением сигнал/шум. Чем больше это отношение, тем выше пропускная способность.