Взаимная информация. Основные свойства. Собственная информация.
Рассмотрим дискретное множество некоторых элементов
Декартово произведение множеств – совокупность упорядоченных пар , причем даже, если X=Y.
З
XY
Y
…
…
X
система
…
…
В какой степени определяет ? (Какое количество информации содержится в событии о событии или какова мера количества информации, которая передается по этой системе?
Пример.
(D=2)
|
(априорная вероятность) |
код |
– апостериорная вероятность получения k-го сообщения на выходе кодера, если: |
||
1символ – «1» |
2,3й – «11» |
1,2,3 – «110» |
|||
|
001 |
0 |
0 |
0 |
|
|
010 |
0 |
0 |
0 |
|
|
|
011 |
0 |
0 |
0 |
|
|
100 |
0 |
0 |
|
|
|
101 |
0 |
0 |
|
|
|
110 |
1 |
||
|
|
111 |
0 |
Взаимная информация
a=2 =>бит , 1 нат (a=e)=1,44бита, 1 дит (a=10)= 2,3 нат=3,32 бита
Свойства взаимной информации:
-
Свойство симметричности
Если статистическая связь отсутствует, то J=0.
-
Взаимная информация принимает положительные значения, если апостериорная ()) вероятность больше априорной (), и наоборот.
→ заблуждение с абсолютной определённостью
Декартово произведение 3х множеств XYZ=
кодер
-
Условная взаимная информация
-
Аддитивность. Какое количество информации несет в себе пара по отношению к ?
Пример.
кодер
|
(априорная вероятность) |
код |
– апостериорная вероятность получения k-го сообщения на выходе кодера, если: |
||
|
|
|
|||
|
001 |
|
0 |
0 |
|
|
010 |
1 |
|||
|
|
011 |
0 |
||
|
100 |
0 |
0 |
0 |
|
|
101 |
0 |
0 |
0 |
|
|
110 |
0 |
0 |
0 |
|
|
111 |
0 |
0 |
0 |
Какое количество информации несет в себе код относительно сообщения 2?
Каков посимвольный вклад?
Собственная информация. Количество информации, которое необходимо для однозначного определения сообщения данного множества. Оценка, если заменить апостериорную вероятность на 1.
1
𝑝,,,𝑥-𝑘.-,𝑦-𝑖...≤1, 𝑝,,,𝑦-𝑖.-,𝑥-𝑘...≤1
Чем меньше вероятность наступления события, тем больше информации оно в себе несёт.
Условие собственной информации
,
Собственная вероятность упорядоченной пары