Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Презентация Табличная база данных. Измерение информации. Равномерный код.pptx
Скачиваний:
38
Добавлен:
24.04.2018
Размер:
4.01 Mб
Скачать

ПРИМЕР 2. ИНФОРМАЦИОННЫЙ ПРОЦЕСС ЧТЕНИЯ

 

ЛЕКЦИИ В АУДИТОРИИ

Источник информации – преподаватель.

Кодирующие устройства – голосовые связки, язык,

микрофон, мел.

 

Канал связи: проводники звука в аудитории (воздух,

акустика), оверхэд и доска, на которой преподаватель

мелом делает пояснительные записи.

 

Источник

 

 

информации

 

 

Кодирующее

Помехи - шум в аудитории,

 

события, отвлекающие внимание

 

устройство

слушателей, плохое качество доски

Помехи

Канал

или мела.

связи

 

 

 

Декодирующее

Информационные сигналы по

 

устройство

каналам связи поступают в органы

 

 

зрения и слуха, где

 

 

воспринимаются и фиксируются

 

Потребитель

потребителями информации -

 

информации

слушателями, декодируются и

 

 

запоминаются ими.

Действия с информацией: запоминание

Запоминание. и хранение

Информация «понятная» потребителю,

отобранная им, запоминается. «Запоминание»

характеризуется как «перекодирование» сигнала из

алфавита процессов, протекающих во времени, в алфавит состояний объектов в пространстве и

Хранениенаоборотможно. рассматривать как частный случай

передачи информации, а именно, передачу во времени.

Кудинов Ю. И., Пащенко Ф. Ф. Основы современной информатики.

КОЛИЧЕСТВЕННАЯ И КАЧЕСТВЕННАЯ ХАРАКТЕРИСТИКИ ИНФОРМАЦИИ

Количественная мера информации (синтаксис)

определяет тот объем поступающих сведений, которые

могут быть полезны, и восприняты потребителем с целью уменьшить свою неосведомленность.

Качественная характеристика (семантика) определяет

уровень простоты и ясности поступающих к

потребителю сведений, уровень трудозатрат со стороны потребителя для усвоения полученных сведений.

Если поступающая информация непонятна или требует значительных усилий со стороны человека для ее

усвоения (декодирования), то можно говорить о такой

информации как об информационном шуме.

НТЕРПРЕТАЦИЯ ПОЛУЧЕННОГО СООБЩЕНИ

Тезаурус - совокупность образов объектов и событий сформированных органами чувств и отраженных на основе принятой человеком системы метрик (меры).

Тезаурус отвечает за интерпретацию полученного Чемсообщенияв большей. степени тезаурусы передающей и

принимающей информацию сторон

соответствуют друг другу, тем полезнее будет для потребителя полученная информация, тем более он будет осведомлен.

Если тезаурусы разнятся, то получаемая информация не будет иметь особого смысла для потребителя.

Полное и понятное изложение информации с

учетом тезауруса потребителя полностью снимет его неосведомленность в том или ином вопросе.

Восприятие информации из сообщения зависит от соответствия тезаурусов источника и потребителя.

Если соответствующие понятия отсутствуют в тезаурусе, потребитель не в состоянии извлечь информацию из сообщения.

Если объем тезауруса велик настолько, что сообщение не вносит в него никаких изменений, то потребитель считает информацию банальной, т.е. для него сообщение тоже не содержит

Ценность информации: W = log 2 (p ’ / p), где р и р' — вероятности достижения цели до и после получения

информации.

94НН03 С006Щ3НN3 П0К4ЗЫ8437,

К4КN3 У9N8N73ЛЬНЫ3 83ЩN М0Ж37 93Л47Ь Н4Ш Р4ЗУМ! 8П3Ч47ЛЯЮЩN3 83ЩN!

СН4Ч4Л4 Э70 6ЫЛ0 7РУ9Н0, Н0 С3ЙЧ4С, Н4 Э70Й С7Р0К3 84Ш Р4ЗУМ

ЧN7437 Э70 4870М47NЧ3СКN, Н3 З49УМЫ84ЯСЬ 06 Э70М. Г0Р9NСЬ. ЛNШЬ 0ПР393Л3ННЫ3 ЛЮ9N М0ГУ7 ПР0ЧN747Ь Э70. 26

НОВИЗНА ИНФОРМАЦИИ – СУБЪЕКТИВНЫЙ ФАКТОР

Если количество информации в сообщении измерять

степенью его новизны для потребителя, то

количество информации в сообщении будет

иметь субъективный характер.

Для измерения субъективной характеристики невозможно выбрать одну, общую для всех,

единицу измерения.

Субъективное измерение количества информации, как степени новизны полученной потребителем информации, лежит вне нашей дисциплины.

ОСНОВНЫЕ СВЕДЕНИЯ ИЗ ТЕОРИИ КОДИРОВАНИЯ ИНФОРМАЦИИ

Шенноновский источник сообщений:

1) A={a1, a2, … , aN} - алфавит источника, N - мощность алфавита,

2) p(ai) i=1, 2, … , N - частота появления ai в каждом сообщении источника,

3) p(a1) + p(a2) + … + p(aN) =1

28

ПОДХОДЫ К ИЗМЕРЕНИЮ ИНФОРМАЦИИ

Ральф Винтон Лайон Хартли

Количество

информации

Клод ЭЭлвуд ШеЭннон (1916-2001)

Объёмный (алфавитный) подход,

при p(a1)= p(a2)=…= p(aN):

h=log2N

Количество символов с учетом информационного веса символов

Вероятностный подход, с учетом частоты p(ai)

появления символа ai в сообщениях:

hi= - log2 p(ai), i=1,2, … , N

Уменьшение

неопределенности, с учетом вероятности событий

ОБЪЕМНЫЙ ПОДХОД К ИЗМЕРЕНИЮ КОЛИЧЕСТВА ИНФОРМАЦИИ

Ральф Винтон Лайон Хартли (1888 -1970)

7/12/19

30

Соседние файлы в предмете Информатика