Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Informatika_eshe_odna_1.doc
Скачиваний:
15
Добавлен:
16.04.2019
Размер:
1.44 Mб
Скачать

4. Количество информации. Синтаксическая, семантическая и прагматическая меры информации.

Количеством информации называют числовую характеристику сигнала, отражающую ту степень неопределенности (неполноту знаний), которая исчезает после получения сообщения в виде данного сигнала. Эту меру неопределенности в теории информации называют энтропией. Если в результате получения сообщения достигается полная ясность в каком-то вопросе, говорят, что была получена полная или исчерпывающая информация и необходимости в получении дополнительной информации нет. И, наоборот, если после получения сообщения неопределенность осталась прежней, значит, информации получено не было (нулевая информация).

Синтаксическая мера информации. Эта мера количества информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. На синтаксическом уровне учитываются тип носителя и способ представления информации, скорость передачи и обработки, размеры кодов представления информации.

Семантическая мера информации. Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне, наибольшее признание получила тезаурусная мера, которая связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение. Для этого используется понятие тезаурус пользователя. Тезаурус — это совокупность сведений, которыми располагает пользователь или система.

Прагматическая мера информации. Эта мера определяет полезность информации (ценность) для достижения пользователем поставленной цепи. Эта мера также величина относительная, обусловленная особенностями использования этой информации в той или иной системе. Ценность информации целесообразно измерять в тех же самых единицах (или близких к ним), в которых измеряется целевая функция.

Мера информации

Единицы измерения

Примеры (для компьютерной области)

Синтаксическая:

шенноновский подход

компьютерный подход

Степень уменьшения неопределенности

 

Единицы представления информации

Вероятность события

 

 

Бит, байт. Кбайт и та

Семантическая

Тезаурус

 

Экономические показатели

Пакет прикладных программ, персональный компьютер, компьютерные сети и т.д.

Рентабельность, производительность, коэффициент амортизации и тд.

Прагматическая

Ценность использования

Емкость памяти, производительность компьютера, скорость передачи данных и т.д.

Денежное выражение

Время обработки информации и принятия решений

 

5. Единицы измерения информации. Двоичное кодирование информации.

Единицы измерения информации служат для измерения объёма информации — величины, исчисляемой логарифмически. Это означает, что когда несколько объектов рассматриваются как один, количество возможных состояний перемножается, а количество информации — складывается. Не важно, идёт речь о случайных величинах в математике, регистрах цифровой памяти в технике или в квантовых системах в физике. Чаще всего измерение информации касается объёма компьютерной памяти и объёма данных, передаваемых по цифровым каналам связи. Кодирование – это преобразование данных одного типа через данные другого типа. В ЭВМ применяется система двоичного кодирования, основанная на представлении данных последовательностью двух знаков: 1 и 0, которые называются двоичными цифрами (binary digit – сокращенно bit).

К достоинству двоичной системы счисления относится – простота совершаемых операций, возможность автоматической обработки информации с использованием двух состояний элементов ПК и операцию сдвиг. Код – система условных обозначений или сигналов. Длина кода – количество знаков, используемых для представления кодируемой информации. Декодирование – расшифровка кодированных знаков, преобразование кода символа в его изображение. Двоичное кодирование – кодирование информации в виде 0 и 1. Машинный язык – логическая последовательность 0 и 1. 1 бит – информация одной двоичной цифры (одного разряда). Количество информации в битах = количеству цифр двоичного кода. В теории кодирования и передачи информации под количеством информации понимают – количество кодируемых, передаваемых или хранимых символов сообщения. В теории кодирования БИТ – двоичный знак двоичного алфавита {0,1}

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]