Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Теория систем и системный анализ.doc
Скачиваний:
114
Добавлен:
15.11.2018
Размер:
1.69 Mб
Скачать
    1. 5.6. Энтропия

Установив, что случайные процессы являются адекватной моделью сигналов, мы получаем возможность воспользоваться результатами и мощным аппаратом теории случайных процессов. Кроме того, обнаружив, что некоторые типы непрерывных сигналов допускают дискретное представление, мы упрощаем задачу, сводя все к рассмотрению случайных величин.

Это не означает, что теория вероятностей и теория случайных процессов дают готовые ответы на все вопросы о сигналах: подход с новых позиций выдвигает такие вопросы, которые раньше просто не возникали. Так и родилась теория информации [9], специально рассматривающая сигнальную специфику случайных процессов. При этом были построены принципиально новые понятия и получены новые, неожиданные результаты, имеющие характер научных открытий.

      1. Понятие неопределенности

Первым специфическим понятием теории информации является понятие неопределенности случайного объекта, для которой удалось ввести количественную меру, названную энтропией. Начнем с простейшего варианта - со случайного события. Пусть, например, некоторое событие может произойти с вероятностью 0,99 и не произойти с вероятностью 0,01, а другое событие имеет вероятности соответственно 0,5 и 0,5. Очевидно, что в первом случае результатом опыта "почти наверняка" является наступление события, во втором же случае неопределенность исхода так велика, что от прогноза разумнее воздержаться.

Для характеристики размытости распределений широко используется второй центральный момент (дисперсия) или доверительный интервал. Однако эти величины имеют смысл лишь для случайных числовых величин и не могут применяться к случайным объектам, состояния которых различаются качественно, хотя и в этом случае можно говорить о большей или меньшей неопределенности исхода опыта. Следовательно, мера неопределенности, связанная с распределением, должна быть некоторой его числовой характеристикой, функционалом от распределения, никак не связанным с тем, в какой шкале измеряются реализации случайного объекта.

      1. Энтропия и ее свойства

Примем (пока без обоснования) в качестве, меры неопределенности случайного объекта А с конечным множеством возможных состояний А1, ... , Аn с соответствующими вероятностями p1, ... , pn величину H{A}=H({pi})= -i pi log pi , которую и называют энтропией случайного объекта А (или распределения {pi}). Убедимся, что этот функционал обладает свойствами, которые вполне естественны для меры неопределенности.

1°. Н(p1, ... , pn) = 0 в том и только в том случае, когда какое-нибудь одно из {pi} равно единице (а остальные - нули). Это соответствует случаю, когда исход опыта может быть предсказан с полной достоверностью, т.е. когда отсутствует всякая неопределенность. Во всех других случаях энтропия положительна. Это свойство проверяется непосредственно.

2°. Н(p1, ... , pn) достигает наибольшего значения при p1= ... =pn=п-1, т.е. в случае максимальной неопределенности.

3°. Если А и В - независимые случайные объекты, то H(АВ)=H(А)+H(B).

4°. Если А и В - зависимые случайные объекты, то H(АВ)=H(А)+H(B|A)= H(B)+H(A|B), где условная энтропия H(B|A) определяется как математическое ожидание энтропии условного распределения.

5°. Имеет место неравенство H(A)H(A|B), что согласуется с интуитивным представлением о том, что знание состояния объекта В может только уменьшить неопределенность объекта А, а если они независимы, то оставит ее неизменной.

Это свойство доказывается с помощью тождественного неравенства kkf(xk)f(kxk), справедливого для любой выпуклой функции f(x), если в этом неравенстве положить f(x)=x logx, k=pk, xk=qk|l.

Как видим, свойства функционала Я позволяют использовать его в качестве меры неопределенности. Интересно отметить, что если пойти в обратном направлении, т.е. задать желаемые свойства меры неопределенности и искать обладающий указанными свойствами функционал, то уже только условия 2° и 4° позволяют найти этот функционал, и притом единственным образом (с точностью до постоянного множителя).