- •Понятие информации
- •Способы представления информации
- •Понятие количества информации
- •Информационные процессы
- •Информационная техника и технология
- •Понятие архитектуры эвм
- •Основные компоненты архитектуры эвм:
- •Отличие структуры от архитектуры эвм
- •Соглашения и умолчания
- •Чего не может пк?
- •Формы адекватности информации и меры информации
- •Качество информации
- •Системы классификации (ск) Общие сведения
- •Иерархическая система классификации (иск)
- •Фасетная система классификации (фск)
- •Дескрипторная (описательная) система классификации (дск)
- •Системы кодирования (ск)
- •Классификация информации по разным признакам
- •По стадии обработки:
- •По способу отражения:
- •По стабильности:
- •По функции управления (для экономической и):
Формы адекватности информации и меры информации
Адекватность информации – определенный уровень соответствия образа, создаваемого с помощью полученной информации, реальному объекту, процессу, явлению и т.п.
В реальной жизни всегда присутствует некоторая степень неопределенности и вряд ли можно рассчитывать на полную адекватность информации. От степени адекватности информации зависит правильность принятия решения.
Пример. После окончания школы вы хотите продолжить образование. Поговорив с друзьями, вы получаете весьма разноречивые сведения, не позволяющие принять решение в пользу того или иного варианта, т.е. полученная информация неадекватна реальному состоянию дел. Для получения более достоверных сведений вы покупаете справочник для поступающих в вузы. Информация из справочника более адекватно отражает направления обучения в вузах и помогает определиться в окончательном выборе.
Адекватность информации может выражаться в трех формах: семантической, синтаксической, прагматической.
Синтаксическая адекватность – отображает формально-структурные характеристики информации и не затрагивает ее смыслового содержания. Здесь учитываются тип носителя и способ представления информации, скорость передачи и обработки, размеры кодов представления информации, надежность и точность преобразования этих кодов и т.п. Информацию, рассматриваемую только с синтаксических позиций, обычно называют данными.
Семантическая (смысловая) адекватность – определяет степень соответствия образа и самого объекта. Анализируются сведения, которые отражает информация, рассматриваются смысловые связи, формируются понятия, представления, содержание и обобщение информации. В информатике – смысловые связи между кодами представления информации.
Прагматическая (потребительская) адекватность – отражает отношение информации и ее потребителя, соответствие информации цели управления. Этот аспект связан с ценностью, полезностью использования информации при выработке потребителем решения для достижения своей цели. Анализируются потребительские свойства информации. Эта форма непосредственно связана с практическим использованием информации.
Для измерения информации используют: количество информации I и объем данных Vд. Каждой форме адекватности соответствует своя мера количества информации и объема данных.
Синтаксическая мера информации – оперирует с обезличенной информацией.
Объем данных Vд в сообщении измеряется количеством символов (разрядов). Единицы измерения данных: в двоичной СС – бит, байт; в десятичной СС – дит (десятичный разряд). Например, сообщение в виде числа 27590310 имеет объем данных Vд=6 дит.
Количество информации I. Пусть до получения информации потребитель имеет предварительные (априорные) сведения о системе . Мерой его неосведомленности о системе является функция H(), которая в то же время служит и мерой неопределенности состояния системы (т.е. мерой энтропии). После принятия сообщения потребитель приобрел дополнительную информацию I(), уменьшившую его априорную неосведомленность так, что апостериорная (после получения сообщения ) неопределенность состояния системы стала H().
Тогда количество информации I() о системе, полученное в сообщении равно: I() = H() - H(), т.е. количество информации измеряется изменением (уменьшением) энтропии. Если конечная неопределенность H() обратится в нуль, то первоначальное неполное знание заменится полным знанием и количество информации I() = H(). Иными словами, энтропия системы может рассматриваться как мера недостающей информации.
Часто информация кодируется числовыми кодами в той или иной СС. Число всех состояний отображаемого объекта N=mn, где m – основание СС (т.е. число символов в алфавите), n – число разрядов (символов) в сообщении.
Пример. По каналу связи передается n-разрядное сообщение, использующее m различных символов. При равновероятном появлении любой комбинации символов принятое количество информации I = log N = n log m (формула Хартли). Если в качестве основания логарифма принять m, то I = n. Количество информации (при условии полного незнания содержания сообщения) будет равно объему данных I = Vд, полученных по каналу связи.
Коэффициент (степень) информативности (лаконичность) сообщения – отношение количества информации к объему данных Y=I/Vд, причем 0<Y<1. С ростом Y уменьшается работа по преобразованию информации (данных) в системе. Стремятся к повышению информативности, разрабатывая специальные методы оптимального кодирования информации.
Семантическая мера информации – для измерения смыслового содержания информации. Наибольшее признание получила тезаурусная мера, связывающая семантические свойства информации со способностью пользователя принимать поступившее сообщение.
Т езаурус – совокупность сведений, которыми располагает пользователь или система.
В зависимости от соотношений между смысловым содержанием информации S и тезаурусом пользователя Sp изменяется количество семантической информации Ic, воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус. Характер такой зависимости показан на рис. 1. Два предельных случая, когда Ic равно 0: при Sp 0 пользователь не воспринимает, не понимает поступающую информацию; при Sp пользователь все знает и поступающая информация ему не нужна.
Ic=max потребитель приобретает при согласовании S с Sp (Sp = Sp оптим), когда поступающая информация понятна пользователю и несет ему ранее не известные (отсутствующие в Sp) сведения. Одно и то же сообщение может иметь смысл для компетентного и быть бессмысленным (семантический шум) для некомпетентного пользователя.
Коэффициент содержательности (относительная мера количества информации) – есть отношение количества семантической информации к ее объему C = Ic/Vд.
Прагматическая мера информации – определяет полезность (ценность) информации для достижения пользователем поставленной цели. Измеряется в тех же единицах, что и целевая функция.
Таблица. Единицы измерения информации и примеры
Мера информации |
Единицы измерения |
Примеры (для компьютерной области) |
Синтаксическая: |
|
|
Шенноновский подход |
Степень уменьшения неопределенности |
Вероятность события |
Компьютерный подход |
Единицы представления информации |
Бит, байт, Кбайт и т.д. |
Семантическая |
Тезаурус |
Пакет прикладных программ, персональный компьютер, компьютерные сети и т.д. |
|
Экономические показатели |
Рентабельность, производительность, коэффициент амортизации и т.д. |
Прагматическая |
Ценность использования |
Емкость памяти, производительность компьютера, скорость передачи данных и т.д. |
|
|
Денежное выражение |
|
|
Время обработки информации и принятия решений |