- •Методическая разработка чтения лекции
- •Санкт-Петербург
- •Цели занятия
- •II. Расчёт учебного времени
- •III. Литература
- •IV. Учебно-материальное обеспечение
- •V. Текст лекции
- •1. Понятие информации.
- •2. Цели, задачи и система курса.
- •3. Информация, ее виды и свойства, единицы измерения
- •Задание для самостоятельной работы
- •Вопросы для самоконтроля
- •План чтения лекции
- •I. Цели занятия
- •II. Расчёт учебного времени
- •III. Литература
- •IV. Учебно-материальное обеспечение
3. Информация, ее виды и свойства, единицы измерения
В современной науке рассматриваются два вида информации:
Объективная (первичная) информация— свойство материальных объектов и явлений (процессов) порождать многообразие состояний, которые посредством взаимодействий (фундаментальные взаимодействия) передаются другим объектам и запечатлеваются в их структуре.[1]
Субъективная (семантическая,смысловая, вторичная) информация– смысловое содержание объективной информации об объектах и процессах материального мира, сформированное сознанием человека с помощью смысловых образов (слов, образов и ощущений) и зафиксированное на каком-либоматериальном носителе.
Свойства информации.
1. Информация должна быть понятной.
Человек должен обмениваться информацией с другими людьми, причем обмен должен производиться на определенном языке, понятном участникам разговора.
2. Информация должна быть достоверной.
Недостоверная информация вводит в заблуждение, приводит к неправильным управленческим решениям, а если она подается через средства массой информации, то может привести к социальным потрясениям.
3. Информация должна быть актуальной.
Актуальность информации – это степень соответствия информации текущему моменту времени. Неактуальная (несвоевременная) информация бесполезна, поэтому никто кроме историков не читает прошлогодних газет.
4. Информация должна быть полной и точной.
Полнота информации определяется достаточностью данных для принятия решений или для создания новых данных на основе имеющихся. Ошибка в полноте и точности представления информации может приводить к неверным решениям.
5. Информация должна быть адекватной.
Это степень соответствия объективному состоянию дела.
Человек и информация.
Человек живет в мире информации и воспринимает окружающий мир (получает информацию) с помощью органов чувств. Наибольшее количество информации воспринимается через зрение – около 90%, через слух около 9% и около 1% другими органами чувств. Информация хранится в памяти и процесс мышления можно рассматривать как обработку информации. На основе полученной и обработанной информации человек создает модели окружающего мира, которые помогают ему принимать решения для достижения поставленной цели. Кроме того, полученная и обработанная человеком информация передается другим потребителям.
Процессы, связанные с получение, хранением, обработкой и передачей информации называются информационными процессами.
Измерение информации.
Для количественного определения любой величины необходимо определить единицу измерения.
За единицу количества информации принято такое количество информации, которое содержит сообщение, уменьшающее неопределенность знания в два раза. Такая единица называется бит.
Существует формула, которая связывает между собой количество возможных событий (N) и количество информации (I):
N= 2I
По этой формуле можно легко определить количество возможных событий, если известно количество информации. Например, если получено 4 бита информации, то количество возможных событий будет 16.
Наоборот, для определения количества информации, если известно количество событий. Необходимо решить показательное уравнение относительно I. Например, в игре крестики-нолики на поле 8х8 перед первым ходом существует 64 возможных события (64 варианта расположения крестика). Тогда уравнение принимает вид:
64 = 2I
Так как 64 = 26, то уравнение принимает вид:
26= 2I
Таким образом, I= 6 бит, то есть количество информации, полученное вторым игроком после хода первого, составляет 6 бит.
На практике существует множество ситуаций, когда возможные события имеют различные вероятности реализации. В этом случае для вычисления количества информации используется формула Шеннона (названа по имени автора):
I= -pilog2pi
где I– количество информации,
N– количество возможных событий,
pi– вероятности отдельных событий.
Например, пусть при бросании несимметричной четырехгранной пирамидки вероятности отдельных событий будут следующими: p1=0,5,p2=0,25,p3=0,125p4=0,125. Тогда количество информации, которое можно получить после реализации одного из указанных событий можно рассчитать по формуле Шеннона.
I= - (0,5log0,5 + 0,25log0,25 + 0,125log0,125 + 0,125log0,125) бит = -(0,5(-1) + 0,25(-2) + 0,125(-3) + 0,125(-3)) = -(-0,5 – 0,5 – 0,375 – 0,375) = 0,5 + 0,5 + 0,375 + 0,375 = 1,75 бит
Для частного, но широко распространенного случая, когда события равновероятны (pi= 1/N), величину количества информации можно рассчитать по формуле:
I= -log2=log2N
Минимальной единицей количества информации является бит. В информатике система образования кратных единиц измерения количества информации отличается от принятых в большинстве наук. Поскольку компьютер оперирует в двоичной системе счисления в кратных единицах измерения количества информации используется коэффициент 2n.
1 байт = 23бит = 8 бит
1 Кбайт = 210 байт = 1024 байт
1 Мбайт = 220байт = 1024 Кбайт
1 Гбайт = 230байт = 1024 Мбайт