- •Учебно-методическое пособие
- •Оглавление
- •Введение
- •Глава 1. Основные понятия информатики
- •Понятие информатики
- •История развития информатики Этапы становления информатики
- •Правовые аспекты информатики
- •Понятие информации. Свойства и единицы измерения информации
- •Свойства информации
- •Способы измерения информации
- •1. Вероятностный подход
- •2. Объемный подход
- •Задания для выполнения
- •Вопросы для тестирования
- •Глава 2. Кодирование информации. Файловая система
- •Кодирование текста (таблицы кодирования)
- •Кодирование графики
- •1. Растровая графика.
- •2. Векторная графика.
- •Кодирование звука
- •Файловая система
- •Вопросы для тестирования
- •Глава 3. Системы счисления
- •Понятие системы счисления
- •Перевод целых чисел из одной системы счисления в другую делением на основание новой системы счисления
- •1. Из десятичной в двоичную систему счисления.
- •2. Из десятичной в шестнадцатеричную систему счисления
- •3. Из десятичной в восьмеричную систему счисления
- •Сложение и вычитание в системах счисления с основанием 2, 8, 16
- •Задания для выполнения
- •Вопросы для тестирования
- •Глава 4. Алгоритмизация и программирование
- •Понятие алгоритма
- •Способы представления алгоритмов
- •1. Графическое представление в виде блок-схемы
- •2. Представление алгоритма на алгоритмическом языке
- •Свойства алгоритма
- •Развитие методологии разработки программ
- •Вопросы для тестирования
- •Глава 5. Моделирование и формализация
- •Понятие моделирования и модели
- •Классификация моделей по способу воспроизведения свойств оригинала
- •Другие виды классификации моделей
- •Применение моделирования
- •Вопросы для тестирования
- •Глава 6. Программные средства реализации информационных процессов
- •Операционная система
- •Операционные системы корпорации microsoft
- •Альтернативные операционные системы
- •Утилиты
- •Системы программирования
- •Уровни языков программирования
- •Вопросы для тестирования
- •Глава 7. Аппаратные средства реализации информационных процессов
- •Классическая архитектура эвм и принципы фон Неймана
- •Шинная архитектура эвм
- •Платформы современных компьютеров
- •Процессор
- •Запоминающие устройства
- •Устройства внутренней памяти
- •Устройства внешней памяти
- •Устройства ввода/вывода данных Устройства вывода
- •Устройства вывода
- •Устройства управления
- •Устройство связи и передачи данных
- •Понятие вычислительной системы
- •Вопросы для тестирования
- •Глава 8. Локальные и глобальные сети
- •Аппаратные средства реализации локальных сетей
- •Программные средства реализации локальных сетей
- •Протоколы
- •Семиуровневая модель межсетевого взаимодействия iso/osi
- •Программные средства
- •Устройство Интернета
- •Серверы. Доменные зоны
- •Сайты и их адреса
- •Поисковые системы
- •Электронная почта
- •Основы компьютерной безопасности. Компьютерные вирусы и борьба с ними
- •Понятие и виды компьютерных вирусов
- •Средства антивирусной защиты
- •Вопросы для тестирования
- •Литература
- •Приложение 1
- •Учебно-методическое пособие
Способы измерения информации
1. Вероятностный подход
Для Примера возьмем опыт: бросается игральная кость, имеющая N граней (N = 6), которые выпадают с одинаковой вероятностью. Результатом броска будет выпадение грани с одним из значений: 1, 2, …, N.
Введем понятие величины, измеряющей неопределенность - энтропию (обозначим ее H).
Формула Хартли:
2H = N,
где H – количество информации (бит); N – количество равновероятных сообщений (различных комбинаций). Прологарифмируем обе части равенства по основанию 2:
H = log2N.
Из этой формулы видно, что H = 1 при N = 2, т.е. в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятных исходов (например, «орел» и «решка»). Такая единица количества информации называется «бит».
1 бит – количество информации, необходимое для различения двух равновероятных событий, которое может произойти или не произойти, т.е. 1 бит – количество информации для передачи количества символов N = 2 (0 или 1).
Другой пример равновероятных сообщений – четное или нечетное количество букв на странице.
Являются ли следующие сообщения равновероятными? «Из здания первой выйдет женщина» и «Из здания первым выйдет мужчина». Все зависит от того, из какого здания. Если из здания метро, то да, а если из здания казармы или салона красоты, то нет. Для решения задач такого рода используется другая формула определения количества информации, учитывающую неодинаковую вероятность сообщений в наборе. Ее предложил американский ученый Клод Шеннон в 1948 году.
Формула Шеннона (для неравновероятных исходов):
.
При равных вероятностях формула Шеннона превращается в формулу Хартли.
2. Объемный подход
БИТ (bit-binary digit) – двоичный разряд. Это наименьшая единица информации. Физически бит-разряд памяти ЭВМ, где хранится 0 или 1.
БАЙТ (byte) – группа из 8 бит, обрабатываемая как единое целое. Физически байт – наименьшая адресуемая единица памяти ЭВМ-ячейка.
В вычислительной технике кроме бит и байт используется еще одна единица информации – машинное слово. С помощью его записывается числа, символы и команды. Длина машинного слова определяет важную характеристику ЭВМ – разрядность. До недавнего времени ЭВМ были 16-разрядные. Современные ЭВМ имеют длину машинного слова 32…..128 разрядов (бит). Следовательно, в структуре машинного слова можно выделить 4…..16 байт.
Количество комбинаций, которое можно закодировать с помощью различного количества информации, представлено в табл. 1.1.
Таблица 1.1
Соответствие единиц объема информации
Количество информации |
количество комбинаций |
соответствие количеству информации |
1бит |
По формуле Хартли: 21 = 2 |
|
2 бит |
По формуле Хартли: 22 = 4 |
|
3 бит |
По формуле Хартли: 23 = 8 |
|
1 байт = 8бит |
По формуле Хартли: 28 = 256 |
1 буква или 1 символ |
1 кбайт |
210байт = 1024 байт |
½ страницы неформатированного текста |
1 Мбайт |
210 кбайт = 1024кбайт |
500 страниц текста (книга) |
1 Гбайт (Г-гига) |
210Мбайт = 1024Мбайт |
1 000 книг |
1 Тбайт (Т-тера) |
210 Гбайт = 1024 Гбайт |
1 000 000 книг |