Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекция 1 ОсновыТ.docx
Скачиваний:
10
Добавлен:
29.03.2016
Размер:
172.39 Кб
Скачать

0.4 Информация и ее свойства

Информация – это любые сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.

Однако сведения становятся информацией только тогда, когда они новы для воспринимающего их объекта. Информация динамически меняется.

Материальным носителем информации является сообщение.

Под обработкой и передачей информации понимается обработка и передача сообщений.

Сообщение – это форма представления информации в виде речи, текста, изображения, графиков и т.п.

Сообщения строятся из элементов, образующих определенный алфавит.

Алфавитом речи являются фонемы, текста – буквы, музыки – тоны, рисунка – точки.

Во времени сообщения могут быть непрерывными

аналоговыми и дискретными.

Аналоговые сообщения ( U1) имеют бесконечный алфавит.

Их примером являются речь, музыка, изображение.

Элементы дискретных сообщений (U2) могут меняться только через определенные равные промежутки времени. Такие сообщения также могут иметь бесконечный алфавит. Их примером являются текст, данные, таблицы.

Важной характеристикой информации является её адекватность.

Адекватность информации – это уровень соответствия создаваемого с помощью полученной информации образа реальному объекту, процессу, явлению и т.п.

Данные – это зарегистрированные сигналы.

Данные могут рассматриваться как признаки некоторых физических объектов, которые по каким-то причинам не взаимодействуют с другими физическими объектами, а лишь хранятся.

Например, номера телефонов в справочнике.

Однако как только эти данные начинают использоваться возникают изменения свойств объектов и данные превращаются в информацию.

Информацией является используемые данные.

0.5 Меры информации.

Любые сообщения могут быть обработаны на ЭВМ, если они представлены в цифровом виде.

В качестве алфавита цифрового сообщения можно принять десять цифр привычной для нас десятичной системы счисления (0, 1 . . 9).

В качестве алфавита всех цифровых систем обработки информации приняты две цифры – 0 и 1 и сочетание нулей и единиц.

Например, десятичное число 12 в двоичной СС имеет вид 1100.

Отдельная позиция в двоичном числе получила название бит.

Т.о., бит имеет одно из двух значений – 0 или 1.

Байтом называется 8-позиционное двоичное число. Например, 10110001.

1 байт = 8 бит

1 бит 1 бит

1

1-й бит

0

2-й бит

1

3-й бит

1

4-й бит

0

5-й бит

0

6-й бит

0

7-й бит

1

8-й бит

Используют еще более крупные единицы измерения:

1 Кбит = 210 бит,

1 Кбайт = 210 байт = 8210 бит,

1 Мбайт = 220 байт = 8220 бит,

1 Гбайт = 230 байт = 8230 бит.

Для измерения информации вводятся два параметра:

количество информации I и объём данных VД.

Объем данных VД в сообщении измеряется количеством символом (разрядов) в этом сообщении; [ измеряется в битах или байтах ].

Количество информации I в сообщении определяется количеством новых знаний, получаемых пользователем и является величиной относительной; [ бит; байт ]. Количество информации измеряется изменением (уменьшением) неопределенности состояния исследуемой величины.

Коэффициент информативности (содержательность) Y определяется отношением: I / VД .

Пусть мы имеем некоторые предварительные (априорные) сведения о системе α. Мерой неосведомленности о системе является функция H(α), которая в то же время служит и мерой неопределенности состояния системы.

После получения некоторого сообщения β мы получили некоторую дополнительную информацию Iβ(α), уменьшившую нашу априорную неосведомленность так, что неопределенность состояния системы после получения сообщения β стала Hβ(α).

Тогда количество информации Iβ(α) в системе, полученной в сообщении β, определится как

Iβ(α)=H(α)-Hβ(α).

Следовательно энтропия (степень неопределенности) системы Н(α) может рассматриваться как мера недостающей информации.

Энтропия системы H(α), имеющая N возможных состояний определяется формулой:

, //формула Шеннона

где Pi — вероятность того, что система находится в i-м состоянии, N – число состояний. Для случая, когда все состояния системы равновероятны, т.е. их вероятности равны Pi =1/N, ее энтропия определяется соотношением:

.

Избыточность сообщения можно определить по формуле:

Информация в компьютере кодируется числовыми кодами. Одно и то же количество разрядов в разных системах счисления может передать разное число состояний отображаемого объекта, что можно представить в виде соотношения

,

где N – число всевозможных отображаемых состояний; m – основание системы счисления (разнообразие символов, применяемых в алфавите); n – число разрядов (символов) в сообщении.

Например, в двоичной системе счисления при 8-разрадном кодировании:

N=28 =256.

Если по каналу связи передается n-разрядное сообщение, использующее m различных символов, то при равновероятном появлении любой из комбинаций, количество информации, будет равно:

I=log2(N)=nlog2(m) // формула Хартли

В двоичной системе счисления (m =2) при 8-разрадном кодировании:

I=log2(256)=8log2(2)=8 бит.

Пример расчета основных показателей информации для фразы: