- •1. Информация
- •1.1. Введение
- •1.2. Количество информации и неопределенность. Энтропия как мера неопределенности
- •1.3. Единицы измерения количества информации
- •1.4. Примеры
- •2. Представление числовой информации в компьютере
- •2.1. Перевод чисел в смешанных системах
- •3. Основы логики
- •Основные операции алгебры высказываний
1.2. Количество информации и неопределенность. Энтропия как мера неопределенности
Информацию, которую получает человек, можно считать мерой уменьшения неопределенности знаний.
Если опыт содержит один исход, то наблюдатель заранее будет знать результат этого исхода. В результате такого опыта наблюдатель не получит никакой информации.
Рассмотрим общий случай, когда есть n независимых сообщений x1 ,x2 ,…, xn с вероятностями p(x1 ), p(x2 ),…, p(xn ) соответственно. Естественно, что чем меньше априорная вероятность события, тем большее количество информации оно несет. Поэтому, естественно предположить, что количественной мерой неопределенности отдельного сообщения и передаваемой им информации, может быть величина, обратная его априорной вероятности*)т.е. 1 / p(xi). Однако, когда опыт будет иметь один исход, т.е. вероятность такого события будет равна единице, количество информации, согласно принятому выражению, будет равно единице. В действительности мы не получаем никакой информации т.е. информация равна нулю.
*) Вероятность – количественная характеристика возможности наступления события. Достоверное событие, т.е. событие, которое непременно должно произойти, имеет вероятность, равную единице. Вероятность неотрицательна и изменяется в пределах от нуля до единицы P(x) 0, 1 .
С этой точки зрения более удобной является логарифмическая мера количества информации
1
I(xi) = loga (1)
p(xi)
где I(xi) – количество информации в событии xi,
Количество информации для всей совокупности случайных событий можно получить усреднением по всем событиям
n 1 n
I(x) = p(xi) loga = - p(xi) loga p(xi) (2)
i=1 p(xi) i=1
где I(x) – количество информации,
n – количество возможных событий,
p(xi) - вероятность отдельных событий.
Получение информации - уменьшение неопределенности сведений о каком- либо событии. Поэтому, величину, характеризующую неопределенность, принято называть энтропией. В связи с этим, выражение (2) может быть использовано для количественной оценки неопределенности сообщения
n 1 n
H(x) = p(xi) loga = - p(xi) loga p(xi) (3)
i=1 p(xi) i=1
где H(x) -энтропия сообщения
Несмотря на совпадение выражений (2) и (3) энтропия и количество информации принципиально различны. Энтропия является объективной характеристикой источника сообщений. Она может быть вычислена априорно. Количество информации – апостериорная величина. С поступлением информации о состоянии объекта, энтропия последнего снижается.
Мера количества информации в виде (2) впервые была предложена К. Шенноном в 1948 году.
1
В случае равно вероятных событий ( n = - количество передаваемых
n p(xi)
сообщений, а p(xi) ) информация определяется по формуле
i=1
I = log2 n (4)
Такая мера количества информации была предложена в 1928 году Р. Хартли.
Показательное уравнение выражения (4) приводит к виду
n = 2I (5)