Тема 1_Информатика Информация
.pdfКафедра |
Информация и данные |
|
Кафедра |
Информация и данные |
|
информатики |
|
информатики |
|
||
|
УГАТУ |
|
УГАТУ |
||
|
|
|
|
||
Получатель информации – это субъект или объект, |
|
|
|
|
|
принимающий сообщение и способный правильно его |
Следует различать понятия информация и данные. |
||||
интерпретировать. |
|
||||
|
Данные являются формой представления |
|
|||
|
|
|
|
||
Получатель информации не равен получателю сообщения |
информации. Однако не всегда данные несут в |
|
|||
(слышу речь на японском – я получатель сообщения, но |
себе информацию. |
|
|||
не информации). |
|
|
|||
|
Для того чтобы данные стали информацией, |
|
|||
Получатель информации лишь фиксирует сигналы. На этом |
|
||||
требуется, как правило, множество |
|
||||
этапе – зарегистрированные сигналы являются данными. |
|
||||
взаимосвязанных методов, с помощью которых |
|
||||
Данные несут в себе информацию о событиях, |
|
|
|||
произошедших в материальном мире, поскольку они |
|
данные воспроизводятся: естественными, |
|
||
являются регистрацией сигналов, возникших в |
|
аппаратными или программными. |
|
||
результате этих событий. |
|
|
|
|
|
Однако данные не тождественны информации. |
|
|
|
||
Информатика |
ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
41 |
Информатика |
ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
42 |
Кафедра |
Информация и данные |
|
Кафедра |
Информация и данные |
|
информатики |
|
информатики |
|
||
|
УГАТУ |
|
УГАТУ |
||
|
|
|
|
||
Естественные методы – это методы, основанные на |
Таким образом, информация – это продукт |
|
|||
взаимодействия данных и адекватных им методов. |
|
||||
органах чувств человека, а также его логическое |
|
|
|||
|
|
|
|
||
мышление, воображение, сравнение, |
|
Поэтому содержательная часть информации зависит не |
|||
сопоставление, анализ, прогнозирование. |
|
только от того, какие сигналы были зарегистрированы, |
|||
Аппаратные методы – это всегда устройства |
|
но и от того, какими методами данные воспроизводятся |
|||
|
|
|
|
||
(приборы), преобразующие данные из формы, |
|
Пример. Наблюдая за состязаниями бегунов, мы с помощью |
|
||
недоступной для естественных методов человека, в |
механического секундомера регистрируем начальное и конечное |
|
|||
форму, доступную для них. |
|
положение стрелки прибора - это регистрация данных. Однако, чтобы |
|||
|
получить информацию о времени преодоления дистанции надо |
|
|||
|
|
|
|
||
Программные методы – это обработка данных с |
|
применить к полученным данным метод пересчёта одной физической |
|||
|
величины в другую. Надо знать цену деления шкалы секундомера и |
||||
помощью компьютера. |
|
||||
|
надо также знать, что надо умножить цену деления прибора на |
|
|||
|
|
|
|
||
|
|
|
величину перемещения стрелки и уметь выполнить умножение. |
|
|
Информатика |
ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
43 |
Информатика |
ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
44 |
Кафедра |
|
|
|
Кафедра |
|
|
|
информатики |
Энтропийный подход к понятию информации |
УГАТУ |
|
информатики Раздел 3. Измерение информации |
УГАТУ |
||
|
|
|
|
|
|||
Если предположить, что приемнику информации мало |
|
|
|
|
|
||
известно о некоторой системе, то любое сообщение |
|
|
|
|
|
||
об этой системе, снимает какую-то часть незнания о |
|
|
|
|
|||
ней. То, насколько мало известно наблюдателю о |
|
|
|
|
|
||
данной системе, в кибернетике связано с понятием |
|
|
|
|
|
||
энтропии или неопределенности состояния системы. |
|
|
|
|
|||
Тогда под информацией понимается количественная |
|
|
|
|
|
||
величина исчезнувшей неопределенности в |
|
|
|
|
|
||
результате получения сообщения об исходе какого- |
|
|
|
|
|
||
либо события (испытания, измерения, процесса, |
|
|
|
|
|
||
состояния), происходящего в системе. |
|
|
|
|
|
||
Таким образом, факт получения информации всегда |
|
|
|
|
|||
связан с уменьшением энтропии системы. |
|
|
|
|
|
||
|
Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
45 |
|
Информатика |
ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
46 |
|
Кафедра |
Измерение информации |
|
|
Кафедра |
Измерение информации |
|
|
информатики |
|
|
информатики |
|
|
||
|
УГАТУ |
|
|
на синтаксическом уровне |
УГАТУ |
||
|
|
|
|
||||
|
|
|
|
|
|
||
С точки зрения науки (семиотики), занимающейся |
|
Существует два подхода к измерению информации на |
|||||
исследованием свойств знаков и знаковых систем, |
|
|
синтаксическом уровне: |
|
|||
сообщение можно изучать на трех уровнях: |
|
- |
энтропийный (количественный) основан на том, что |
||||
• Синтаксическом. Сообщение рассматривается как совокупность |
|||||||
|
информация – это снятая неопределенность, а |
|
|||||
знаков. При этом полностью абстрагируются от смыслового |
|
|
|
||||
|
|
именно, если до получения сообщения приемнику |
|||||
содержания сообщения, и информацию называют данными. |
|
|
|||||
• Семантическом. В сообщении рассматриваются смысловые |
|
|
информации мало известно о некоторой системе, то |
||||
связи, формируются понятия и представления, выявляется смысл, |
|
любое сообщение об этой системе, снимает какую-то |
|||||
содержание информации. |
|
|
часть незнания о ней; |
|
|||
• Прагматическом. На этом уровне рассматривается, насколько |
|
|
|||||
- алфавитный (объемный) исходит из того, что любое |
|||||||
сообщение важно для принятия решения, при этом учитывается |
|
||||||
своевременность его доставки и использования |
|
|
сообщение можно представить конечной |
|
|||
Для каждого из рассматриваемых уровней передачи |
|
|
последовательностью символов некоторого |
|
|||
информации существуют свои подходы к измерению |
|
|
алфавита . |
|
|
||
количества информации и свои меры информации. |
|
|
|
|
|||
|
|
|
|
|
|||
|
Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
47 |
|
Информатика |
ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
48 |
Кафедра |
|
|
Кафедра |
|
|
|
|
|
информатики Энтропийный подход к измерению информации |
|
информатики Энтропийный подход к измерению информации |
|
|||||
|
|
УГАТУ |
|
|
|
|
УГАТУ |
|
Поскольку энтропия – это числовая характеристика, |
|
В случае, когда после получения сообщения, |
|
|||||
отражающая ту степень неопределенности, которая |
|
|
||||||
|
имеющаяся неопределенность снята полностью |
|||||||
исчезает после получения информации, то энтропия |
|
|||||||
|
(получен конкретный результат, т.е. Haps = 0), |
|
||||||
является количественной мерой информации. |
|
|
||||||
|
количество полученной информации совпадает с |
|||||||
|
|
|
||||||
Количественную оценку информации как исчезнувшей |
|
первоначальной энтропией: |
|
|
||||
неопределенности можно выразить формулой: |
|
|
|
|
|
|
||
I = Hapr – Haps, |
|
|
I = Hapr. |
|
||||
где Hapr – априорная энтропия о состоянии системы |
|
В дальнейшем будет рассматриваться случай, когда |
||||||
(до получения сообщения); |
|
|||||||
|
Haps = 0 |
|
|
|
|
|||
|
|
|
|
|
|
|
||
Haps – апостериорная энтропия о состоянии |
|
|
|
|
|
|
||
системы (после получения сообщения) |
|
|
|
|
|
|
||
Информатика ФАТС – 2, 3 |
курс 1, заочники семестр 1, 2010 г. |
49 |
Информатика |
ФАТС – 2, 3 курс 1, заочники |
семестр 1, 2010 г. |
50 |
||
Кафедра |
|
|
Кафедра |
|
|
|
|
|
информатики Энтропийный подход к измерению информации |
|
информатики Энтропийный подход к измерению информации |
|
|||||
|
|
УГАТУ |
|
|
|
|
УГАТУ |
|
В 1948 г. американский инженер и математик К. Шеннон |
Формула Шеннона для вычисления количества |
|||||||
предложил формулу для расчета энтропии системы, |
||||||||
|
|
|
|
|
||||
которая имеет N возможных неравновероятных |
|
информации в случае неравновероятных |
|
|||||
состояний: |
N |
|
состояний системы: |
|
|
|
||
H apr |
= − ∑ pi log pi , |
|
|
|
|
|
|
|
|
i =1 |
|
|
N |
|
|
|
|
где pi – вероятность того, что система находится |
|
|
I = − ∑ p log p , |
|
||||
в i-м состоянии; |
|
|
i |
|
i |
|
||
|
|
i =1 |
|
|
|
|||
N – число всевозможных состояний системы. |
|
|
|
|
|
|||
|
|
|
|
|
|
|||
Поскольку энтропия является количественной мерой |
|
|
N |
1 |
|
|
||
информации, то количество информации I для случая |
или |
I = ∑ p log |
|
|
||||
неравновероятных состояний системы можно |
|
i |
pi |
|
||||
|
|
i =1 |
|
|||||
вычислить по формуле Шеннона. |
|
|
|
|
|
|
||
Информатика ФАТС – 2, 3 |
курс 1, заочники семестр 1, 2010 г. |
51 |
Информатика |
ФАТС – 2, 3 курс 1, заочники |
семестр 1, 2010 г. |
52 |
Кафедра |
Энтропийный подход к измерению информации |
Кафедра |
Энтропийный подход к измерению информации |
||||||||||||||
информатики |
информатики |
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
УГАТУ |
|
|
|
УГАТУ |
|
Если все состояния системы равновероятны, т.е. |
p |
|
= p = 1 |
Эту же формулу для расчета количества |
|
||||||||||||
|
i |
|
N |
информации в случае равновероятных событий |
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
||||||
то получим |
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
предложил американский математик Р. Хартли |
||||||
|
N |
|
1 |
|
1 |
|
|
1 ( |
|
|
|
|
|||||
|
|
|
|
|
|
) |
|
|
в 1928 году. Поэтому формулу |
|
|
||||||
I = − ∑ pilog pi = − N |
log |
|
|
|
= log N |
|
|
||||||||||
N |
= − N |
|
log 1 − log N |
|
|
|
|
|
|||||||||
|
i =1 |
|
|
N |
|
|
N |
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
т.е. |
|
I = log N |
|
|
|
|
|
|
|
|
I = log N |
|
|
||||
|
. |
|
|
|
|
|
|
|
|
. |
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
называют формулой Хартли. |
|
|
||
где N – число возможных состояний системы. |
|
|
|
|
|
|
|
|
|||||||||
Эта формула используется для расчета количества |
|
|
|
|
|
||||||||||||
информации в случае равновероятных состояний системы |
|
|
|
|
|||||||||||||
|
Информатика |
ФАТС – 2, 3 |
курс 1, заочники |
семестр 1, 2010 г. |
|
|
|
53 |
|
Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, |
2010 г. |
54 |
|||||
Кафедра |
Единицы измерения информации |
|
|
|
|
Кафедра |
Единицы измерения информации |
|
|||||||||
информатики |
|
|
|
|
информатики |
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
УГАТУ |
|
|
|
УГАТУ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Если взять число состояний системы N = 2, а в качестве |
||||
|
|
За единицу измерения информации |
|
основания логарифма взять 2, тогда получается |
|||||||||||||
|
|
примем такое количество снятой |
|
|
2 |
|
|
||||||||||
|
|
неопределенности, что |
|
|
|
|
I = − ∑ pi log pi = − p1 log 2 p1 − p2 log 2 p2 = 1 , |
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
N |
|
|
|
|
|
|
|
|
i =1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Это равенство справедливо, если p1 = p2 = 1 |
|
||||
|
|
|
I = − ∑ pi |
log pi = 1, |
|
|
|
|
, т.е. |
||||||||
|
|
|
|
|
i =1 |
|
|
|
|
|
|
|
события равновероятны). |
2 |
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
Следовательно, за единицу измерения информации можно |
||||
В предыдущих формулах нигде не указывалось |
|
|
|
|
взять то количество информации, которое снимает |
||||||||||||
|
|
|
|
неопределенность (понижает значение энтропии) в |
|||||||||||||
основание логарифма. Для определения единицы |
|||||||||||||||||
случае равновероятных состояний системы ровно в два |
|||||||||||||||||
измерения информации необходимо конкретизировать |
|||||||||||||||||
раза. Эта единица получила название бит. |
|
||||||||||||||||
число состояний системы N и основание логарифма. |
|
||||||||||||||||
|
|
|
|
||||||||||||||
|
Информатика |
ФАТС – 2, 3 |
курс 1, заочники |
семестр 1, 2010 г. |
|
|
|
55 |
|
Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, |
2010 г. |
56 |
Кафедра |
Измерение количества информации |
|
Кафедра |
Измерение количества информации |
|
информатики |
|
информатики |
|
||
|
|
УГАТУ |
|
|
УГАТУ |
Пример. Пусть нам нужно передать информацию об |
|
Пример. Сколько бит информации будет получено при бросании |
|
||
исходе бросания монеты. До момента бросания |
|
пирамидки (четыре грани N = 4) и кубика (шесть граней N = 6), |
|
||
|
при условии, что пирамидка и кубик симметричны и однородны, |
|
|||
монеты имеется неопределенность исхода данного |
|
||||
т.е. исходы N событий для них равновероятны. |
|
||||
|
|
|
|
||
события, при этом потенциально возможны два |
|
|
|
|
|
варианта равновероятных исходов бросания. |
|
Решение. Согласно формуле Хартли: |
|
||
Вероятность каждого события р1=р2=0,5. |
|
|
|
|
|
Любое из двух сообщений о результате бросания монеты |
|
|
|
||
уменьшает неопределенность ровно в два раза. |
|
|
|
|
|
Это и есть количество информации в 1 бит. |
|
|
|
|
|
|
|
|
Если N является целой степенью двойки, то расчеты производятся |
|
|
Действительно, согласно формуле Хартли |
|
достаточно просто, в противном случае для вычисления |
|
||
|
логарифма следует применять таблицы Брадиса, и количество |
|
|||
|
|
|
|
||
|
I = log 22 = 1 бит |
|
информации не будет целым числом. |
|
|
|
|
|
|
|
|
|
Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
57 |
|
Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
58 |
Кафедра |
Измерение количества информации |
|
Кафедра |
Измерение количества информации |
|
информатики |
|
информатики |
|
||
|
|
УГАТУ |
|
|
УГАТУ |
Пример. Известно, что в пруду, в основном, водятся караси, |
|
Качественную связь между вероятностью |
|
||
то вероятность поймать именно карася будет больше, чем |
|
некоторого события и количеством |
|
||
вероятность поймать какую-либо другую рыбу. Тогда |
|
|
|
||
|
|
информации в сообщении об этом событии |
|
||
количество информации в сообщении о том, что рыбак |
|
|
|
||
поймал карася, будет меньше, чем о том, что рыбак |
|
|
можно выразить так: |
|
|
поймал щуку. |
|
|
|
|
|
Если известно, что интересующее нас событие обязательно |
|
Чем меньше вероятность некоторого |
|
||
должно произойти (произойдет с вероятностью 1), то |
|
|
|||
|
|
события, тем больше информации |
|
||
сообщение о том, что это событие произошло, не несет |
|
|
|
||
никакой информации, и количество информации равно |
|
|
содержит сообщение об этом событии. |
||
нулю . Например, сообщение о том, что после красного |
|
|
|
|
|
сигнала светофора загорится желтый, не несет никакой |
|
|
|
|
|
информации. |
|
|
|
|
|
|
Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
59 |
|
Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
60 |
Кафедра |
|
Кафедра |
|
|
информатики Алфавитный подход к измерению информации |
|
информатики Алфавитный подход к измерению информации |
||
|
УГАТУ |
|
УГАТУ |
|
При алфавитном (объемном) подходе к измерению |
|
Основная единица измерения объема информации – бит. |
||
информации сообщение рассматривается как |
|
|||
|
|
|
||
дискретная последовательность символов |
|
Бит с точки зрения алфавитного подхода к измерению |
||
некоторого алфавита. Смысл информации, |
|
информации – это минимально возможное количество |
||
заключенный в сообщении, также как и при |
|
информации, содержащееся в сообщении из одного |
||
энтропийном подходе не имеет значения, поэтому в |
|
символа, записанного с помощью двухсимвольного |
||
этом случае также говорят о синтаксической мере |
|
алфавита. |
|
|
информации. |
|
|
|
|
|
|
Если считать, что все символы появляются в тексте с |
||
Алфавит – некоторое конечное множество символов |
равной вероятностью, то информационный вес |
|
||
{ a1, a2, …, aN }, используемых при записи сообщений. |
каждого символа в битах для алфавита мощностью |
|||
Мощность алфавита – количество всех возможных |
|
N можно сосчитать по формуле Хартли |
. |
|
|
|
|
||
символов N в данном алфавите. |
|
I = log 2 N |
|
|
Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
61 |
Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
62 |
|
Кафедра |
|
Кафедра |
|
|
информатики Алфавитный подход к измерению информации |
|
информатики Алфавитный подход к измерению информации |
||
|
УГАТУ |
|
УГАТУ |
|
Например, |
|
В компьютерной технике информация представляется |
||
• в 2-х символьном алфавите каждый символ несет |
|
в двоичной форме (с использованием алфавита, |
||
1 бит (log22=1) информации; |
|
состоящего из двух знаков 0 и 1), поэтому за единицу |
||
• в 4-х символьном алфавите – 2 бита информации |
|
измерения и объема и количества информации |
||
(log24=2); |
|
принимается бит (bit – binary digit – двоичный |
||
• в 8-ми символьном – 3 бита (log28=3) и т.д. |
|
разряд). |
|
|
Информационный объем сообщения I можно найти, |
|
Таким образом, с точки зрения алфавитного подхода |
||
|
применительно к компьютерной технике, бит – это |
|||
перемножив количество символов k в сообщении на |
||||
минимальная единица измерения, представленная в |
||||
информационный вес i одного символа: |
|
|||
|
компьютере двоичным знаком. |
|
||
I =k i |
|
|
|
|
Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
63 |
Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
64 |
Кафедра |
|
|
Алфавитный подход к измерению информации |
Кафедра |
Измерение объема информации |
|
||
информатики |
|
информатики |
|
|||||
|
|
|
|
УГАТУ |
|
|
УГАТУ |
|
Один символ из алфавита мощностью 256 |
символов |
Пример. Измерить информационный объем сообщения |
|
|||||
|
имеет вес равный log2256 = 8 бит, что соответствует |
|
||||||
|
«Я очень люблю информатику!», записанного с |
|
||||||
|
единице измерения информации, названной байт. |
|
||||||
|
помощью 256-ти символьного алфавита. Считаем, что |
|||||||
|
|
|
1 байт = 8 бит = 23 бит. |
|
||||
|
|
|
|
символы появлятся в тексте с равной вероятностью |
|
|||
Алфавит мощностью 256 символов используется для |
Решение. Информационный вес каждого символа равен |
|||||||
представления текстов в компьютере и поэтому |
||||||||
8 бит или 1 байт. |
|
|||||||
|
|
|
|
|
|
|||
чаще называется компьютерным алфавитом. При |
Всего в сообщении 26 символов с учетом пробела. |
|
||||||
этом делаются допущения, что каждый символ |
|
|
|
|||||
встречается в тексте с равной вероятностью. |
Информационный объем сообщения равен 26 байт. |
|
||||||
Байт |
в компьютерной технике является наименьшей |
|
|
|
||||
адресуемой единицей . |
|
|
|
|
||||
|
|
|
Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
65 |
|
Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
66 |
|
Кафедра |
|
Единицы измерения объема информации |
Кафедра |
Единицы измерения объема информации |
|
|||
информатики |
информатики |
|
||||||
|
|
|
|
|||||
|
|
|
|
УГАТУ |
|
|
УГАТУ |
|
Для измерения объема хранимой (или передаваемой) |
Соотношение единиц измерения объема информации |
|||||||
информации байт является слишкой малой единицей. В |
|
|
|
|||||
этом случае используются более крупные единицы |
|
|
|
|||||
измерения информации |
|
|
|
|
||||
|
|
|
Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
67 |
|
Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
68 |
Кафедра |
|
Кафедра |
|
информатики Семантическая мера измерения информации |
|
информатики Семантическая мера измерения информации |
|
|
УГАТУ |
|
УГАТУ |
Для измерения смыслового содержания информации, т.е. |
Количество семантической информации Ic, |
|
|
воспринимаемой пользователем и включаемой им в |
|
||
ее количества на семантическом уровне, наибольшее |
|
|
|
|
дальнейшем в свой тезаурус, изменяется в зависимости |
||
признание получила тезаурусная мера, которая |
|
||
|
от соотношения между смысловым содержанием |
|
|
|
|
|
|
связывает семантические свойства информации со |
|
информации S и тезаурусом пользователя Sp. |
|
способностью пользователя принимать поступившее |
|
|
|
|
Два предельных случая, когда количество семантической |
||
сообщение. |
|
||
|
информации Ic равно 0: |
|
|
|
|
|
|
Для этого используют понятие тезауруса – совокупности |
- при Sp = 0 пользователь не воспринимает, не понимает |
||
сведений, которыми располагает пользователь или |
|
||
|
поступающую информацию; |
|
|
система. |
|
|
|
|
- при Sp →∞ пользователь все знает, и поступающая |
|
|
|
|
|
|
|
|
информация ему не нужна. |
|
Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
69 |
Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
70 |
Кафедра |
|
Кафедра |
|
информатики Семантическая мера измерения информации |
|
информатики Прагматическая мера измерения информации |
|
|
УГАТУ |
|
УГАТУ |
Максимальное количество информации Ic потребитель |
|
Прагматическая мера определяет полезность информации |
|
приобретает при согласовании ее смыслового |
|
(ценность) для достижения пользователем |
|
содержания S со своим тезаурусом Sp, когда |
|
поставленной цели. Эта мера также величина |
|
|
относительная, обусловленная тем как эта информация |
||
поступающая информация понятна пользователю и |
|
||
несет ему ранее неизвестные (отсутствующее в |
|
будет использоваться для решения той или иной задачи. |
|
|
|
|
|
тезаурусе) сведения. |
|
Пример. В экономической системе ценность информации |
|
|
|
можно определить приростом экономического эффекта |
|
Следовательно, мера новых знаний, получаемых |
|
ее функционирования, достигнутым благодаря |
|
|
использованию этой информации для управления |
|
|
пользователем, является величиной относительной. |
|
|
|
|
системой. |
|
|
Одно и то же сообщение может иметь смысловое |
|
|
|
|
|
|
|
содержание для компетентного пользователя и быть |
|
Если информация уменьшает вероятность достижения цели, |
|
бессмысленным для пользователя некомпетентного. |
|
увеличивает исходную неопределенность, такую |
|
|
|
информацию называют дезинформацией. |
|
Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
71 |
Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
72 |
Кафедра |
Раздел 4: Классификация информации |
|
Кафедра |
|
Классификация информации |
|
||
информатики |
УГАТУ |
информатики |
|
УГАТУ |
||||
|
|
|
|
|
|
|
||
|
|
|
|
По отношению к объекту, воспринимающему и |
|
|||
|
|
|
|
|
обрабатывающему информацию, её можно разделить |
|||
|
|
|
|
|
на следующие виды: входная, внутренняя и выходная. |
|||
|
|
Классификация |
Входная информация, воспринятая объектом, становится |
|||||
|
|
информации |
|
внутренней и обрабатывается. |
|
|||
|
|
по формам, |
Результатом обработки является выходная информация. |
|||||
|
|
видам, |
|
|
Выходная информация отличается от входной, как |
|
||
|
|
признакам |
|
нерешенная задача отличается от решенной. Часто |
|
|||
|
|
|
выходная информация одного объекта может служить |
|||||
|
|
|
|
|
||||
|
|
|
|
|
входной информацией для другого объекта и т.д. |
|
||
|
Информатика |
ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
73 |
|
|
Информатика |
ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
74 |
Кафедра |
|
Классификация информации |
|
Кафедра |
Классификация информации |
|
||
информатики |
|
УГАТУ |
информатики |
УГАТУ |
||||
|
|
|
|
|
|
|
||
В соответствии с видами сигналов различают дискретное |
Классификация информации по форме представления |
|
||||||
|
техническими устройствами (в том числе и |
|
||||||
и непрерывное сообщение, дискретную и непрерывную |
|
|
||||||
|
компьютером), т.е. по способу кодирования: |
|
||||||
информацию. |
|
|
|
|||||
|
• |
Текстовая информация. |
|
|||||
Дискретная информация – это последовательность |
|
|
||||||
|
• Графическая (изобразительная) информация. |
|
||||||
символов, характеризующая прерывистую, |
|
|
||||||
|
• |
Звуковая информация. Задача хранения и |
|
|||||
изменяющуюся величину (количество дорожно- |
|
|
||||||
|
|
тиражирования любых звуков была решена с |
|
|||||
|
|
|
|
|
|
|||
транспортных происшествий, значение счетчика и т.п.); |
|
изобретением звукозаписывающих и |
|
|||||
Аналоговая (непрерывная) информация – это величина, |
|
звуковоспроизводящих устройств. |
|
|||||
характеризующая процесс, не имеющий перерывов или |
• |
Видеоинформация. Способ сохранения «живых» картин |
||||||
промежутков (температура тела человека, скорость |
|
|
окружающего мира, появившийся с изобретением кино. |
|||||
|
|
|
|
|
|
|||
автомобиля на определенном участке пути и т.п.). |
|
• Мультимедийная (комбинированная). |
|
|||||
|
|
|
|
|
|
|||
|
|
|
|
• |
Числовая информация. |
|
||
|
Информатика |
ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
75 |
|
|
Информатика |
ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
76 |
|
Кафедра |
Классификация информации |
|
|
|
|
Кафедра |
|
Классификация информации |
|
|
|||
|
информатики |
|
|
|
|
информатики |
|
|
|
|||||
|
|
|
|
УГАТУ |
|
|
|
|
|
|
|
УГАТУ |
||
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Классификация информации по области возникновения: |
|
|
|
|
У человека пять органов чувств: зрение, слух, обоняние, |
||||||||
|
|
|
|
|
вкус, осязание. С их помощью он получает информацию |
|||||||||
|
• |
элементарная (механическая) – отражает процессы |
|
|
|
|
||||||||
|
|
|
|
|
о внешнем мире. Органы чувств с видами информации |
|||||||||
|
|
неодушевленной природы; |
|
|
|
|
||||||||
|
|
|
|
|
|
соотносятся следующим образом: |
|
|
||||||
|
• |
биологическая – отражает процессы животного и |
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
растительного мира; |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Орган чувств |
|
Вид информации |
|
|
||
|
• |
социальная – отражает процессы человеческого общества. |
|
|
|
|
|
|
|
|
|
|||
|
Классификация информации по способу восприятия: |
|
|
|
|
|
|
зрение |
|
визуальная |
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
слух |
|
аудиальная |
|
|
|||
|
• |
визуальная информация передается видимыми образами и |
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|||||
|
|
символами; |
|
|
|
|
|
|
обоняние |
|
обонятельная |
|
|
|
|
• |
аудиальная информация передается звуками; |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
вкус |
|
вкусовая |
|
|
|||
|
• |
тактильная информация передается ощущениями; |
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
• |
органолептическая информация передаваемая запахами |
|
|
|
|
|
|
осязание |
|
тактильная |
|
|
|
|
|
(обонятельная) и вкусами (вкусовая) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
77 |
|
|
|
|
Информатика ФАТС – 2, 3 |
курс 1, заочники семестр 1, 2010 г. |
78 |
|
|
Кафедра |
Классификация информации |
|
|
|
|
Кафедра |
|
Классификация информации |
|
|
|
информатики |
|
|
|
|
информатики |
|
|
|||
|
|
|
|
|
|
|
|
|
|||
|
|
|
УГАТУ |
|
|
|
|
|
УГАТУ |
||
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
Классификация информации по общественному |
|
|
|
|
Классификация информации по содержанию: |
|
|
|||
|
значению (созданная и используемая человеком): |
|
|
|
научная, производственная, правовая и т.д.). |
||||||
|
• личная для конкретного человека (знания, умения, |
|
|
|
|
|
|
|
|||
|
навыки, интуиция); |
|
|
|
|
Классификация информации по характеру |
|
|
|||
|
• массовая для любого желающего (общественная, |
|
|
|
|
|
|
||||
|
|
|
|
|
|
генерирования: |
|
|
|||
|
обыденная, общественно-политическая, научно- |
|
|
|
|
|
|
|
|||
|
|
|
|
|
• объективная – отражает явления природы и |
||||||
|
популярная, эстетическая и т.д.); |
|
|
|
|
||||||
|
|
|
|
|
|
человеческого общества; |
|
|
|||
|
• специальная для узкого круга лиц, решающих |
|
|
|
|
|
|
|
|||
|
|
|
|
|
• субъективная – отражает взгляд конкретного |
||||||
|
специальные задачи конкретной области науки |
|
|
|
|
||||||
|
|
|
|
|
|
человека на объективные явления. |
|
|
|||
|
(научная, производственная, техническая, |
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
||
|
управленческая). |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
79 |
|
|
|
|
|
Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г. |
80 |
|