- •Оглавление
- •1.1. Сообщения, данные, сигналы
- •1.2. Меры и единицы представления, измерения и хранения информации
- •1.3. Виды и свойства информации
- •Лекция 2. Общая характеристика процессов сбора, обработки, передачи и накопления информации
- •2.1. Измерение информации
- •2.2. Восприятие информации
- •2.3. Сбор информации
- •2.4. Передача информации
- •2.5. Обработка информации
- •Информационно-логические основы эвм
- •2.6. Системы счисления
- •2.7. Позиционные системы счисления
- •Лекция 3. Информационно-логические основы эвм (окончание)
- •3.1. Системы счисления (окончание)
- •3.1.1. Двоичная система счисления
- •3.1.2. Другие позиционные системы счисления
- •3.1.3. Смешанные системы счисления
- •Информатика как наука
- •3.2. Предметная область информатики как науки
- •3.3. Краткая история развития информатики
- •3.4. Понятие об информационном обществе
- •3.5. Цель и задачи курса "информатика"
- •Лекция 4. Эвм как средство обработки информации
- •4.1. История развития эвм
- •4.2. Основные характеристики эвм
- •4.3. Классификация эвм
- •Лекция 5. Эвм как средство обработки информации (окончание)
- •5.1. Общие принципы построения современных эвм
- •5.2. Программное обеспечение эвм и его функции
- •5.3. Состав и назначение основных элементов пк, их характеристики
- •5.3.1. Общие сведения о пэвм и их классификация
- •5.3.2. Структурная схема пэвм
- •5.3.3. Внешние устройства пэвм
- •5.3.4. Запоминающие устройства пэвм
- •Лекция 6. Операционные системы. Графическая операционная среда windows
- •6.1. Операционная системаMsdos
- •6.2. ОболочкаNortonCommander
- •6.3. Основные технологические механизмыWindows
- •6.4. Создание объектов, управление объектами, свойства объектов
- •6.5. Навигация по файловой системе. Операции с файлами. Поиск файлов. Настройка параметров работы операционной системы
- •6.6. Обзор приложений Windows. Совместная работа приложений
- •6.7. Программы обслуживания дисков. Архивация данных. Программы-архиваторы
- •6.8. ОболочкаFarManager
- •Лекция 7. Программные средства обработки информации
- •7.1. Понятие системного и служебного (сервисного) программного обеспечения
- •7.2. Операционные системы. Файловая организация данных. Каталоги
- •Лекция 8. Программные средства обработки информации (окончание)
- •8.1. Прикладные программы
- •8.2. Системы программирования
- •8.3. Классификация программного обеспечения
- •8.4. Проблемно-ориентированные ппп
- •8.5. Интегрированные ппп
- •Лекция 9. Основы текстовой и табличной обработки информации
- •9.1. Текстовый процессорMicrosoftWord
- •9.1.1. Запуск и завершение работы с Word
- •9.1.2. Главное меню и панели инструментов
- •9.1.3. Открытие и сохранение документов
- •9.1.4. Форматирование документов
- •9.1.5. Печать документа
- •9.2. Табличный процессорMicrosoftExcel
- •9.2.1. Основные понятия электронных таблиц
- •9.2.2. Интерфейс табличного процессора ms Excel. Основные различия между Word и Excel
- •Литература
1.2. Меры и единицы представления, измерения и хранения информации
Для теоретической информатики информация играет такую же роль, как и вещество в физике. И подобно тому, как веществу можно приписывать довольно большое количество характеристик (массу, заряд, объем и т.д.), так и для информации имеется пусть не столь большой, но достаточно представительный набор характеристик. Как и для характеристик вещества, так и для характеристик информации имеются единицы измерения, что позволяет некоторой порции информации приписывать числа – количественные характеристики информации.
На сегодняшний день наиболее известны следующие способы измерения информации:
объемный;
энтропийный;
алгоритмический.
Объемный является самым простым и грубым способом измерения информации. Соответствующую количественную оценку информации естественно назвать объемом информации.
Объем информации в сообщении – это количество символов в сообщении. Поскольку, например, одно и то же число может быть записано многими разными способами (с использованием разных алфавитов):
"двадцать один"
21
11001
XXI,
то этот способ чувствителен к форме представления (записи) сообщения. В вычислительной технике вся обрабатываемая и хранимая информация вне зависимости от ее природы (число, текст, отображение) представлена в двоичной форме (с использованием алфавита, состоящего всего из двух символов 0 и 1). Такая стандартизация позволила ввести две стандартные единицы измерения: бит и байт. Байт – это восемь бит. Более подробно эти единицы измерения будут рассмотрены позже.
Количеством информации называют числовую характеристику сигнала, отражающую степень неопределенности (неполноту знаний), которая исчезает после получения сообщения в виде данного сигнала. Эту меру неопределенности в теории информации называют энтропией. Если в результате получения сообщения достигается полная ясность в каком-то вопросе, говорят, что была получена полная или исчерпывающая информация и необходимости в получении дополнительной информации нет. И, наоборот, если после получения сообщения неопределенной осталась прежней, значит, информации получено не было (нулевая информация).
Приведенные рассуждения показывают, что между понятиями информация, неопределенность и возможность выбора существует тесная связь. Так, любая неопределенность предполагает возможность выбора, а любая информация, уменьшая неопределенность, уменьшает и возможность выбора. При полной информации выбора нет. Частичная информация уменьшает число вариантов выбора, сокращая тем самым неопределенность.
Пример. Человек бросает монету и наблюдает, какой стороной она упадет. Обе стороны монеты равноправны, поэтому одинаково вероятно, что выпадет одна или другая сторона. Такой ситуации приписывается начальная неопределенность, характеризуемая двумя возможностями. После того, как монета упадет, достигается полная ясность и неопределенность исчезает (становится равной нулю).
В алгоритмической теории информации (раздел теории алгоритмов) предлагается алгоритмический методоценки информации в сообщении. Этот метод кратко можно охарактеризовать следующими рассуждениями.
Каждый согласится, что слово 0101…01 сложнее слова 00..0, а слово, где 0 и 1 выбираются из эксперимента – бросание монеты (где 0 – герб, 1 – решка), сложнее обоих предыдущих.
Компьютерная программа, производящая слово из одних нулей, крайне проста: печатать один и тот же символ. Для получения 0101…01 нужна чуть более сложная программа, печатающая символ, противоположный только что напечатанному. Случайная, не обладающая ни какими закономерностями последовательность не может быть произведена никакой "короткой" программой. Длина программы, производящей хаотичную последовательность, должна быть близка к длине последней.
Приведенные рассуждения позволяют предположить, что любому сообщению можно приписать количественную характеристику, отражающую сложность (размер) программы, которая позволяет ее произвести.
Так как имеется много разных вычислительных машин и разных языков программирования (разных способов задания алгоритма), то для определенности задаются некоторой конкретной вычислительной машиной, например машиной Тьюринга, а предполагаемая количественная характеристика – сложность слова (сообщения) – определяется как минимальное число внутренних состояний машины Тьюринга, требующиеся для его воспроизведения. Так же в алгоритмической теории информации используются и другие способы задания сложности.