Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Теория систем и системный анализ.doc
Скачиваний:
114
Добавлен:
15.11.2018
Размер:
1.69 Mб
Скачать
      1. Свойства количества информации

Отметим некоторые важные свойства количества информации.

1°. Количество информации в случайном объекте Х относительно объекта Y равно количеству информации в Y относительно X: I(X,Y)=I(Y,X).

2°. Количество информации неотрицательно: I(X, Y)0. I(X, Y)=0 при p(x, у)=р(х)р(у).

3°. Для дискретных Х справедливо равенство I(Х, X)=H(Х).

4°. Преобразование (X) одной случайной величины не может увеличить содержание в ней информации о другой, связанной с ней, величине: I((X), Y)I(X, Y)

5°. Для независимых пар величин количество информации аддитивно: I({Xi, Yi})=iI(Xi, Yi).

      1. Единицы измерения энтропии и количества информации

Рассмотрим теперь вопрос о единицах измерения количества информации и энтропии. Из определений I и Н следует их безразмерность, а из линейности их связи - одинаковость их единиц. Поэтому будем для определенности говорить об энтропии. Начнем с дискретного случая. За единицу энтропии примем неопределенность случайного объекта, такого, что H(X)=-ipi logpi=1 .

Легко установить, что для однозначного определения единицы измерения энтропии необходимо конкретизировать число т состояний объекта и основание логарифма. Возьмем для определенности наименьшее число возможных состояний, при котором объект еще остается случайным, т.е. т=2, и в качестве основания логарифма также возьмем число 2. Тогда из равенства -p1 logp1-p2 logp2=1- вытекает, что p1=p2=1/2. Следовательно, единицей неопределенности служит энтропия объекта с двумя равновероятными состояниями. Эта единица получила название "бит". Бросание монеты дает количество информации в один бит. Другая единица ("нит") получается, если использовать натуральные логарифмы, обычно она употребляется для непрерывных величин.

      1. Количество информации в индивидуальных событиях

Остановимся еще на одном важном моменте. До сих пор речь шла о среднем количестве информации, приходящемся на любую пару состояний (xi, yk) объектов Х и Y. Эта характеристика естественна для рассмотрения особенностей стационарно функционирующих систем, когда в процессе функционирования (рано или поздно, реже или чаще) принимают участие все возможные пары (xi, yk). Однако в ряде практических случаев оказывается необходимым рассмотреть информационное описание конкретной пары состояний, оценить содержание информации в конкретной реализации сигнала. Тот факт, что некоторые сигналы несут информации намного больше, чем другие, виден на примере того, как отбираются новости средствами массовой информации (скажем, все радиостанции и газеты сообщают о рождении шестерых близнецов где-то в Южной Америке, но о рождении двойни обычно не пишут).

Допуская существование количественной меры информации i(xi, yk) в конкретной паре (xi, yk), естественно потребовать, чтобы индивидуальное и среднее количества информации удовлетворяли соотношению I(X,Y)=Mi(xi, yk)=ik p(xi, yk) i(xi, yk).

Мерой индивидуальной информации в дискретном случае может служить величина i(xi, yk)= log(p(xi| yk) p-1(xi))= log(p(yk|xi) p-1(yk))=log(p(xi, yk) p-1(xi)p-1(yk)), а в непрерывном - величина i(x, y)=log(p(x|y) p-1(x))=log(p(y|x)p-1(y))=log(p(x, y)p-1(x)p-1(y)), называемая информационной плотностью. Свойства этих величин согласуются с интуитивными представлениями (в том числе и возможная отрицательность при положительности в среднем) и, кроме того, доказана единственность меры, обладающей указанными свойствами. Полезность введения понятия индивидуального количества информации проиллюстрируем на следующем примере.

Пусть по выборке (т.е. совокупности наблюдений) х = х1, ..., хN требуется отдать предпочтение одной из конкурирующих гипотез 1 или Н0), если известны распределения наблюдений при каждой из них, т.е. p(x|Н0) и p(x|Н1). Как обработать выборку? Из теории известно, что никакая обработка не может увеличить количества информации, содержащегося в выборке х. Следовательно, выборке х нужно поставить в соответствие число, содержащее всю полезную информацию, т.е. обработать выборку без потерь. Возникает мысль о том, чтобы вычислить индивидуальные количества информации в выборке х о каждой из гипотез и сравнить их:

i = i(x, Н1)- i(x, Н0) = log(p(x|Н1)p-1(x)) - log(p(x|Н0)p-1(x))= log(p(x|Н1)(p-1(x|Н0))

Какой из гипотез отдать предпочтение, зависит теперь от величины i и от того, какой порог сравнения мы назначим. Оказывается, что мы получили статистическую процедуру, оптимальность которой специально доказывается в математической статистике, - именно к этому сводится содержание фундаментальной леммы Неймана - Пирсона. Данный пример иллюстрирует эвристическую силу теоретико-информационных представлений.

Подведем итог: Главным результатом данного параграфа является открытие К. Шенноном возможности количественного описания информационных процессов в системах и получение им формулы для количества информации.