Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Тема 1_Информатика Информация

.pdf
Скачиваний:
13
Добавлен:
18.03.2015
Размер:
940.76 Кб
Скачать

Кафедра

Информация и данные

 

Кафедра

Информация и данные

 

информатики

 

информатики

 

 

УГАТУ

 

УГАТУ

 

 

 

 

Получатель информации – это субъект или объект,

 

 

 

 

принимающий сообщение и способный правильно его

Следует различать понятия информация и данные.

интерпретировать.

 

 

Данные являются формой представления

 

 

 

 

 

Получатель информации не равен получателю сообщения

информации. Однако не всегда данные несут в

 

(слышу речь на японском – я получатель сообщения, но

себе информацию.

 

не информации).

 

 

 

Для того чтобы данные стали информацией,

 

Получатель информации лишь фиксирует сигналы. На этом

 

требуется, как правило, множество

 

этапе – зарегистрированные сигналы являются данными.

 

взаимосвязанных методов, с помощью которых

 

Данные несут в себе информацию о событиях,

 

 

произошедших в материальном мире, поскольку они

 

данные воспроизводятся: естественными,

 

являются регистрацией сигналов, возникших в

 

аппаратными или программными.

 

результате этих событий.

 

 

 

 

Однако данные не тождественны информации.

 

 

 

Информатика

ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

41

Информатика

ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

42

Кафедра

Информация и данные

 

Кафедра

Информация и данные

 

информатики

 

информатики

 

 

УГАТУ

 

УГАТУ

 

 

 

 

Естественные методы – это методы, основанные на

Таким образом, информация – это продукт

 

взаимодействия данных и адекватных им методов.

 

органах чувств человека, а также его логическое

 

 

 

 

 

 

мышление, воображение, сравнение,

 

Поэтому содержательная часть информации зависит не

сопоставление, анализ, прогнозирование.

 

только от того, какие сигналы были зарегистрированы,

Аппаратные методы – это всегда устройства

 

но и от того, какими методами данные воспроизводятся

 

 

 

 

(приборы), преобразующие данные из формы,

 

Пример. Наблюдая за состязаниями бегунов, мы с помощью

 

недоступной для естественных методов человека, в

механического секундомера регистрируем начальное и конечное

 

форму, доступную для них.

 

положение стрелки прибора - это регистрация данных. Однако, чтобы

 

получить информацию о времени преодоления дистанции надо

 

 

 

 

 

Программные методы – это обработка данных с

 

применить к полученным данным метод пересчёта одной физической

 

величины в другую. Надо знать цену деления шкалы секундомера и

помощью компьютера.

 

 

надо также знать, что надо умножить цену деления прибора на

 

 

 

 

 

 

 

 

величину перемещения стрелки и уметь выполнить умножение.

 

Информатика

ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

43

Информатика

ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

44

Кафедра

 

 

 

Кафедра

 

 

информатики

Энтропийный подход к понятию информации

УГАТУ

 

информатики Раздел 3. Измерение информации

УГАТУ

 

 

 

 

 

Если предположить, что приемнику информации мало

 

 

 

 

 

известно о некоторой системе, то любое сообщение

 

 

 

 

 

об этой системе, снимает какую-то часть незнания о

 

 

 

 

ней. То, насколько мало известно наблюдателю о

 

 

 

 

 

данной системе, в кибернетике связано с понятием

 

 

 

 

 

энтропии или неопределенности состояния системы.

 

 

 

 

Тогда под информацией понимается количественная

 

 

 

 

 

величина исчезнувшей неопределенности в

 

 

 

 

 

результате получения сообщения об исходе какого-

 

 

 

 

 

либо события (испытания, измерения, процесса,

 

 

 

 

 

состояния), происходящего в системе.

 

 

 

 

 

Таким образом, факт получения информации всегда

 

 

 

 

связан с уменьшением энтропии системы.

 

 

 

 

 

 

Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

45

 

Информатика

ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

46

Кафедра

Измерение информации

 

 

Кафедра

Измерение информации

 

информатики

 

 

информатики

 

 

 

УГАТУ

 

 

на синтаксическом уровне

УГАТУ

 

 

 

 

 

 

 

 

 

 

С точки зрения науки (семиотики), занимающейся

 

Существует два подхода к измерению информации на

исследованием свойств знаков и знаковых систем,

 

 

синтаксическом уровне:

 

сообщение можно изучать на трех уровнях:

 

-

энтропийный (количественный) основан на том, что

• Синтаксическом. Сообщение рассматривается как совокупность

 

информация – это снятая неопределенность, а

 

знаков. При этом полностью абстрагируются от смыслового

 

 

 

 

 

именно, если до получения сообщения приемнику

содержания сообщения, и информацию называют данными.

 

 

• Семантическом. В сообщении рассматриваются смысловые

 

 

информации мало известно о некоторой системе, то

связи, формируются понятия и представления, выявляется смысл,

 

любое сообщение об этой системе, снимает какую-то

содержание информации.

 

 

часть незнания о ней;

 

• Прагматическом. На этом уровне рассматривается, насколько

 

 

- алфавитный (объемный) исходит из того, что любое

сообщение важно для принятия решения, при этом учитывается

 

своевременность его доставки и использования

 

 

сообщение можно представить конечной

 

Для каждого из рассматриваемых уровней передачи

 

 

последовательностью символов некоторого

 

информации существуют свои подходы к измерению

 

 

алфавита .

 

 

количества информации и свои меры информации.

 

 

 

 

 

 

 

 

 

 

Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

47

 

Информатика

ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

48

Кафедра

 

 

Кафедра

 

 

 

 

информатики Энтропийный подход к измерению информации

 

информатики Энтропийный подход к измерению информации

 

 

 

УГАТУ

 

 

 

 

УГАТУ

Поскольку энтропия – это числовая характеристика,

 

В случае, когда после получения сообщения,

 

отражающая ту степень неопределенности, которая

 

 

 

имеющаяся неопределенность снята полностью

исчезает после получения информации, то энтропия

 

 

(получен конкретный результат, т.е. Haps = 0),

 

является количественной мерой информации.

 

 

 

количество полученной информации совпадает с

 

 

 

Количественную оценку информации как исчезнувшей

 

первоначальной энтропией:

 

 

неопределенности можно выразить формулой:

 

 

 

 

 

 

I = Hapr – Haps,

 

 

I = Hapr.

 

где Hapr – априорная энтропия о состоянии системы

 

В дальнейшем будет рассматриваться случай, когда

(до получения сообщения);

 

 

Haps = 0

 

 

 

 

 

 

 

 

 

 

 

Haps – апостериорная энтропия о состоянии

 

 

 

 

 

 

системы (после получения сообщения)

 

 

 

 

 

 

Информатика ФАТС – 2, 3

курс 1, заочники семестр 1, 2010 г.

49

Информатика

ФАТС – 2, 3 курс 1, заочники

семестр 1, 2010 г.

50

Кафедра

 

 

Кафедра

 

 

 

 

информатики Энтропийный подход к измерению информации

 

информатики Энтропийный подход к измерению информации

 

 

 

УГАТУ

 

 

 

 

УГАТУ

В 1948 г. американский инженер и математик К. Шеннон

Формула Шеннона для вычисления количества

предложил формулу для расчета энтропии системы,

 

 

 

 

 

которая имеет N возможных неравновероятных

 

информации в случае неравновероятных

 

состояний:

N

 

состояний системы:

 

 

 

H apr

= − pi log pi ,

 

 

 

 

 

 

 

i =1

 

 

N

 

 

 

где pi – вероятность того, что система находится

 

 

I = − p log p ,

 

в i-м состоянии;

 

 

i

 

i

 

 

 

i =1

 

 

 

N – число всевозможных состояний системы.

 

 

 

 

 

 

 

 

 

 

 

Поскольку энтропия является количественной мерой

 

 

N

1

 

 

информации, то количество информации I для случая

или

I = p log

 

 

неравновероятных состояний системы можно

 

i

pi

 

 

 

i =1

 

вычислить по формуле Шеннона.

 

 

 

 

 

 

Информатика ФАТС – 2, 3

курс 1, заочники семестр 1, 2010 г.

51

Информатика

ФАТС – 2, 3 курс 1, заочники

семестр 1, 2010 г.

52

Кафедра

Энтропийный подход к измерению информации

Кафедра

Энтропийный подход к измерению информации

информатики

информатики

 

 

 

 

 

 

 

 

 

 

 

 

УГАТУ

 

 

 

УГАТУ

Если все состояния системы равновероятны, т.е.

p

 

= p = 1

Эту же формулу для расчета количества

 

 

i

 

N

информации в случае равновероятных событий

 

 

 

 

 

 

 

 

 

 

 

 

то получим

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

предложил американский математик Р. Хартли

 

N

 

1

 

1

 

 

1 (

 

 

 

 

 

 

 

 

 

 

)

 

 

в 1928 году. Поэтому формулу

 

 

I = − pilog pi = − N

log

 

 

 

= log N

 

 

N

= − N

 

log 1 − log N

 

 

 

 

 

 

i =1

 

 

N

 

 

N

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

т.е.

 

I = log N

 

 

 

 

 

 

 

 

I = log N

 

 

 

.

 

 

 

 

 

 

 

 

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

называют формулой Хартли.

 

 

где N – число возможных состояний системы.

 

 

 

 

 

 

 

 

Эта формула используется для расчета количества

 

 

 

 

 

информации в случае равновероятных состояний системы

 

 

 

 

 

Информатика

ФАТС – 2, 3

курс 1, заочники

семестр 1, 2010 г.

 

 

 

53

 

Информатика ФАТС – 2, 3 курс 1, заочники семестр 1,

2010 г.

54

Кафедра

Единицы измерения информации

 

 

 

 

Кафедра

Единицы измерения информации

 

информатики

 

 

 

 

информатики

 

 

 

 

 

 

 

 

 

 

 

 

 

УГАТУ

 

 

 

УГАТУ

 

 

 

 

 

 

 

 

 

 

 

 

 

Если взять число состояний системы N = 2, а в качестве

 

 

За единицу измерения информации

 

основания логарифма взять 2, тогда получается

 

 

примем такое количество снятой

 

 

2

 

 

 

 

неопределенности, что

 

 

 

 

I = − pi log pi = − p1 log 2 p1 p2 log 2 p2 = 1 ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

N

 

 

 

 

 

 

 

 

i =1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Это равенство справедливо, если p1 = p2 = 1

 

 

 

 

I = − pi

log pi = 1,

 

 

 

 

, т.е.

 

 

 

 

 

i =1

 

 

 

 

 

 

 

события равновероятны).

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Следовательно, за единицу измерения информации можно

В предыдущих формулах нигде не указывалось

 

 

 

 

взять то количество информации, которое снимает

 

 

 

 

неопределенность (понижает значение энтропии) в

основание логарифма. Для определения единицы

случае равновероятных состояний системы ровно в два

измерения информации необходимо конкретизировать

раза. Эта единица получила название бит.

 

число состояний системы N и основание логарифма.

 

 

 

 

 

 

Информатика

ФАТС – 2, 3

курс 1, заочники

семестр 1, 2010 г.

 

 

 

55

 

Информатика ФАТС – 2, 3 курс 1, заочники семестр 1,

2010 г.

56

Кафедра

Измерение количества информации

 

Кафедра

Измерение количества информации

 

информатики

 

информатики

 

 

 

УГАТУ

 

 

УГАТУ

Пример. Пусть нам нужно передать информацию об

 

Пример. Сколько бит информации будет получено при бросании

 

исходе бросания монеты. До момента бросания

 

пирамидки (четыре грани N = 4) и кубика (шесть граней N = 6),

 

 

при условии, что пирамидка и кубик симметричны и однородны,

 

монеты имеется неопределенность исхода данного

 

т.е. исходы N событий для них равновероятны.

 

 

 

 

 

события, при этом потенциально возможны два

 

 

 

 

варианта равновероятных исходов бросания.

 

Решение. Согласно формуле Хартли:

 

Вероятность каждого события р12=0,5.

 

 

 

 

Любое из двух сообщений о результате бросания монеты

 

 

 

уменьшает неопределенность ровно в два раза.

 

 

 

 

Это и есть количество информации в 1 бит.

 

 

 

 

 

 

 

Если N является целой степенью двойки, то расчеты производятся

 

Действительно, согласно формуле Хартли

 

достаточно просто, в противном случае для вычисления

 

 

логарифма следует применять таблицы Брадиса, и количество

 

 

 

 

 

 

I = log 22 = 1 бит

 

информации не будет целым числом.

 

 

 

 

 

 

 

Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

57

 

Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

58

Кафедра

Измерение количества информации

 

Кафедра

Измерение количества информации

 

информатики

 

информатики

 

 

 

УГАТУ

 

 

УГАТУ

Пример. Известно, что в пруду, в основном, водятся караси,

 

Качественную связь между вероятностью

 

то вероятность поймать именно карася будет больше, чем

 

некоторого события и количеством

 

вероятность поймать какую-либо другую рыбу. Тогда

 

 

 

 

 

информации в сообщении об этом событии

 

количество информации в сообщении о том, что рыбак

 

 

 

поймал карася, будет меньше, чем о том, что рыбак

 

 

можно выразить так:

 

поймал щуку.

 

 

 

 

Если известно, что интересующее нас событие обязательно

 

Чем меньше вероятность некоторого

 

должно произойти (произойдет с вероятностью 1), то

 

 

 

 

события, тем больше информации

 

сообщение о том, что это событие произошло, не несет

 

 

 

никакой информации, и количество информации равно

 

 

содержит сообщение об этом событии.

нулю . Например, сообщение о том, что после красного

 

 

 

 

сигнала светофора загорится желтый, не несет никакой

 

 

 

 

информации.

 

 

 

 

 

Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

59

 

Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

60

Кафедра

 

Кафедра

 

информатики Алфавитный подход к измерению информации

 

информатики Алфавитный подход к измерению информации

 

УГАТУ

 

УГАТУ

При алфавитном (объемном) подходе к измерению

 

Основная единица измерения объема информации – бит.

информации сообщение рассматривается как

 

 

 

 

дискретная последовательность символов

 

Бит с точки зрения алфавитного подхода к измерению

некоторого алфавита. Смысл информации,

 

информации – это минимально возможное количество

заключенный в сообщении, также как и при

 

информации, содержащееся в сообщении из одного

энтропийном подходе не имеет значения, поэтому в

 

символа, записанного с помощью двухсимвольного

этом случае также говорят о синтаксической мере

 

алфавита.

 

информации.

 

 

 

 

 

Если считать, что все символы появляются в тексте с

Алфавит – некоторое конечное множество символов

равной вероятностью, то информационный вес

 

{ a1, a2, …, aN }, используемых при записи сообщений.

каждого символа в битах для алфавита мощностью

Мощность алфавита – количество всех возможных

 

N можно сосчитать по формуле Хартли

.

 

 

 

символов N в данном алфавите.

 

I = log 2 N

 

Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

61

Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

62

Кафедра

 

Кафедра

 

информатики Алфавитный подход к измерению информации

 

информатики Алфавитный подход к измерению информации

 

УГАТУ

 

УГАТУ

Например,

 

В компьютерной технике информация представляется

• в 2-х символьном алфавите каждый символ несет

 

в двоичной форме (с использованием алфавита,

1 бит (log22=1) информации;

 

состоящего из двух знаков 0 и 1), поэтому за единицу

• в 4-х символьном алфавите – 2 бита информации

 

измерения и объема и количества информации

(log24=2);

 

принимается бит (bit binary digit – двоичный

• в 8-ми символьном – 3 бита (log28=3) и т.д.

 

разряд).

 

Информационный объем сообщения I можно найти,

 

Таким образом, с точки зрения алфавитного подхода

 

применительно к компьютерной технике, бит – это

перемножив количество символов k в сообщении на

минимальная единица измерения, представленная в

информационный вес i одного символа:

 

 

компьютере двоичным знаком.

 

I =k i

 

 

 

Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

63

Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

64

Кафедра

 

 

Алфавитный подход к измерению информации

Кафедра

Измерение объема информации

 

информатики

 

информатики

 

 

 

 

 

УГАТУ

 

 

УГАТУ

Один символ из алфавита мощностью 256

символов

Пример. Измерить информационный объем сообщения

 

 

имеет вес равный log2256 = 8 бит, что соответствует

 

 

«Я очень люблю информатику!», записанного с

 

 

единице измерения информации, названной байт.

 

 

помощью 256-ти символьного алфавита. Считаем, что

 

 

 

1 байт = 8 бит = 23 бит.

 

 

 

 

 

символы появлятся в тексте с равной вероятностью

 

Алфавит мощностью 256 символов используется для

Решение. Информационный вес каждого символа равен

представления текстов в компьютере и поэтому

8 бит или 1 байт.

 

 

 

 

 

 

 

чаще называется компьютерным алфавитом. При

Всего в сообщении 26 символов с учетом пробела.

 

этом делаются допущения, что каждый символ

 

 

 

встречается в тексте с равной вероятностью.

Информационный объем сообщения равен 26 байт.

 

Байт

в компьютерной технике является наименьшей

 

 

 

адресуемой единицей .

 

 

 

 

 

 

 

Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

65

 

Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

66

Кафедра

 

Единицы измерения объема информации

Кафедра

Единицы измерения объема информации

 

информатики

информатики

 

 

 

 

 

 

 

 

 

УГАТУ

 

 

УГАТУ

Для измерения объема хранимой (или передаваемой)

Соотношение единиц измерения объема информации

информации байт является слишкой малой единицей. В

 

 

 

этом случае используются более крупные единицы

 

 

 

измерения информации

 

 

 

 

 

 

 

Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

67

 

Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

68

Кафедра

 

Кафедра

 

информатики Семантическая мера измерения информации

 

информатики Семантическая мера измерения информации

 

 

УГАТУ

 

УГАТУ

Для измерения смыслового содержания информации, т.е.

Количество семантической информации Ic,

 

воспринимаемой пользователем и включаемой им в

 

ее количества на семантическом уровне, наибольшее

 

 

 

дальнейшем в свой тезаурус, изменяется в зависимости

признание получила тезаурусная мера, которая

 

 

от соотношения между смысловым содержанием

 

 

 

 

связывает семантические свойства информации со

 

информации S и тезаурусом пользователя Sp.

 

способностью пользователя принимать поступившее

 

 

 

Два предельных случая, когда количество семантической

сообщение.

 

 

информации Ic равно 0:

 

 

 

 

Для этого используют понятие тезауруса – совокупности

- при Sp = 0 пользователь не воспринимает, не понимает

сведений, которыми располагает пользователь или

 

 

поступающую информацию;

 

система.

 

 

 

- при Sp →∞ пользователь все знает, и поступающая

 

 

 

 

 

 

информация ему не нужна.

 

Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

69

Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

70

Кафедра

 

Кафедра

 

информатики Семантическая мера измерения информации

 

информатики Прагматическая мера измерения информации

 

 

УГАТУ

 

УГАТУ

Максимальное количество информации Ic потребитель

 

Прагматическая мера определяет полезность информации

приобретает при согласовании ее смыслового

 

(ценность) для достижения пользователем

 

содержания S со своим тезаурусом Sp, когда

 

поставленной цели. Эта мера также величина

 

 

относительная, обусловленная тем как эта информация

поступающая информация понятна пользователю и

 

несет ему ранее неизвестные (отсутствующее в

 

будет использоваться для решения той или иной задачи.

 

 

 

тезаурусе) сведения.

 

Пример. В экономической системе ценность информации

 

 

можно определить приростом экономического эффекта

Следовательно, мера новых знаний, получаемых

 

ее функционирования, достигнутым благодаря

 

 

использованию этой информации для управления

 

пользователем, является величиной относительной.

 

 

 

системой.

 

Одно и то же сообщение может иметь смысловое

 

 

 

 

 

содержание для компетентного пользователя и быть

 

Если информация уменьшает вероятность достижения цели,

бессмысленным для пользователя некомпетентного.

 

увеличивает исходную неопределенность, такую

 

 

 

информацию называют дезинформацией.

 

Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

71

Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

72

Кафедра

Раздел 4: Классификация информации

 

Кафедра

 

Классификация информации

 

информатики

УГАТУ

информатики

 

УГАТУ

 

 

 

 

 

 

 

 

 

 

 

По отношению к объекту, воспринимающему и

 

 

 

 

 

 

обрабатывающему информацию, её можно разделить

 

 

 

 

 

на следующие виды: входная, внутренняя и выходная.

 

 

Классификация

Входная информация, воспринятая объектом, становится

 

 

информации

 

внутренней и обрабатывается.

 

 

 

по формам,

Результатом обработки является выходная информация.

 

 

видам,

 

 

Выходная информация отличается от входной, как

 

 

 

признакам

 

нерешенная задача отличается от решенной. Часто

 

 

 

 

выходная информация одного объекта может служить

 

 

 

 

 

 

 

 

 

 

входной информацией для другого объекта и т.д.

 

 

Информатика

ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

73

 

 

Информатика

ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

74

Кафедра

 

Классификация информации

 

Кафедра

Классификация информации

 

информатики

 

УГАТУ

информатики

УГАТУ

 

 

 

 

 

 

 

В соответствии с видами сигналов различают дискретное

Классификация информации по форме представления

 

 

техническими устройствами (в том числе и

 

и непрерывное сообщение, дискретную и непрерывную

 

 

 

компьютером), т.е. по способу кодирования:

 

информацию.

 

 

 

 

Текстовая информация.

 

Дискретная информация – это последовательность

 

 

 

• Графическая (изобразительная) информация.

 

символов, характеризующая прерывистую,

 

 

 

Звуковая информация. Задача хранения и

 

изменяющуюся величину (количество дорожно-

 

 

 

 

тиражирования любых звуков была решена с

 

 

 

 

 

 

 

транспортных происшествий, значение счетчика и т.п.);

 

изобретением звукозаписывающих и

 

Аналоговая (непрерывная) информация – это величина,

 

звуковоспроизводящих устройств.

 

характеризующая процесс, не имеющий перерывов или

Видеоинформация. Способ сохранения «живых» картин

промежутков (температура тела человека, скорость

 

 

окружающего мира, появившийся с изобретением кино.

 

 

 

 

 

 

автомобиля на определенном участке пути и т.п.).

 

• Мультимедийная (комбинированная).

 

 

 

 

 

 

 

 

 

 

 

Числовая информация.

 

 

Информатика

ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

75

 

 

Информатика

ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

76

 

Кафедра

Классификация информации

 

 

 

 

Кафедра

 

Классификация информации

 

 

 

информатики

 

 

 

 

информатики

 

 

 

 

 

 

 

УГАТУ

 

 

 

 

 

 

 

УГАТУ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Классификация информации по области возникновения:

 

 

 

 

У человека пять органов чувств: зрение, слух, обоняние,

 

 

 

 

 

вкус, осязание. С их помощью он получает информацию

 

элементарная (механическая) – отражает процессы

 

 

 

 

 

 

 

 

 

о внешнем мире. Органы чувств с видами информации

 

 

неодушевленной природы;

 

 

 

 

 

 

 

 

 

 

соотносятся следующим образом:

 

 

 

биологическая – отражает процессы животного и

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

растительного мира;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Орган чувств

 

Вид информации

 

 

 

социальная – отражает процессы человеческого общества.

 

 

 

 

 

 

 

 

 

 

Классификация информации по способу восприятия:

 

 

 

 

 

 

зрение

 

визуальная

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

слух

 

аудиальная

 

 

 

визуальная информация передается видимыми образами и

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

символами;

 

 

 

 

 

 

обоняние

 

обонятельная

 

 

 

аудиальная информация передается звуками;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

вкус

 

вкусовая

 

 

 

тактильная информация передается ощущениями;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

органолептическая информация передаваемая запахами

 

 

 

 

 

 

осязание

 

тактильная

 

 

 

 

(обонятельная) и вкусами (вкусовая)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

77

 

 

 

 

Информатика ФАТС – 2, 3

курс 1, заочники семестр 1, 2010 г.

78

 

 

Кафедра

Классификация информации

 

 

 

 

Кафедра

 

Классификация информации

 

 

 

информатики

 

 

 

 

информатики

 

 

 

 

 

 

 

 

 

 

 

 

 

 

УГАТУ

 

 

 

 

 

УГАТУ

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Классификация информации по общественному

 

 

 

 

Классификация информации по содержанию:

 

 

 

значению (созданная и используемая человеком):

 

 

 

научная, производственная, правовая и т.д.).

 

• личная для конкретного человека (знания, умения,

 

 

 

 

 

 

 

 

навыки, интуиция);

 

 

 

 

Классификация информации по характеру

 

 

 

• массовая для любого желающего (общественная,

 

 

 

 

 

 

 

 

 

 

 

 

генерирования:

 

 

 

обыденная, общественно-политическая, научно-

 

 

 

 

 

 

 

 

 

 

 

 

• объективная – отражает явления природы и

 

популярная, эстетическая и т.д.);

 

 

 

 

 

 

 

 

 

 

человеческого общества;

 

 

 

• специальная для узкого круга лиц, решающих

 

 

 

 

 

 

 

 

 

 

 

 

• субъективная – отражает взгляд конкретного

 

специальные задачи конкретной области науки

 

 

 

 

 

 

 

 

 

 

человека на объективные явления.

 

 

 

(научная, производственная, техническая,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

управленческая).

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

79

 

 

 

 

 

Информатика ФАТС – 2, 3 курс 1, заочники семестр 1, 2010 г.

80