Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ЛЕКЦИЯ 2.pdf
Скачиваний:
10
Добавлен:
09.04.2015
Размер:
742.88 Кб
Скачать

ЛЕКЦИЯ 2

Информатика 2 курс 2013-2014 учебный год

Темы:

Энтропийная концепция информации

Кодирование данных в ЭВМ

Энтропийная концепция

информации

Автор: американский ученый Клод Шеннон

 

Энтропия – мера неопределенности

1916 – 2011

Информация – мера устранения неопределенности в отношении исхода того или иного события

Количество информации в сообщении зависит от вероятности его получения: чем более вероятным является сообщение, тем меньше информации содержится в нем

Количество информации

Процесс получения информации - это выбор одного сообщения из конечного заданного

множества N равновероятных сообщений

За единицу количества информации (1 бит)

принимается количество информации, которое содержит сообщение, уменьшающее неопределенность (энтропию) в два раза

Количество бит информации, содержащееся в выбранном сообщении, определяют как I=log2N

(формула Хартли)

Пример 1

Колода содержит 32 карты. Загадана карта

Сколько вопросов с ответами да-нет надо задать, чтобы угадать карту?

1.Черная масть?

2.Бубновая масть?

3.Старше десятки?

4.Старше дамы?

5.Это валет?

Каждый раз неопределенность уменьшается в 2 раза,

т.е. каждое сообщение содержит 1 бит информации

Сколько бит информации содержит сообщение «Из колоды 32 карт выбран бубновый валет?»

32=25, 5=Log2 32

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]