- •Информатика
- •Содержание
- •Лекция № 1. Информация и информатика
- •1. Понятие информации
- •2. Понятие информатики
- •Вопросы
- •Информационные процессы в системах управления
- •2. История развития информационных процессов
- •3. Проблемы развития информационных технологий
- •Мера информации синтаксического уровня
- •3. Меры информации семантического уровня
- •4. Меры информации прагматического уровня
- •Вопросы
- •4.1. Системы счисления
- •4.2. Перевод чисел в системах счисления
- •4.2.1. Перевод двоичных чисел в восьмеричную и шестнадцатеричную системы счисления
- •4.2.2. Перевод чисел из восьмеричной и шестнадцатеричной систем счисления в двоичную систему счисления
- •4.2.3. Перевод чисел в десятичную систему счисления
- •4.2.4. Перевод целых чисел из десятичной системы счисления в систему счисления с основанием q
- •Лекция № 5. Перевод дробных чисел. Хранение целых чисел
- •5.1. Перевод дробных чисел из десятичной системы счисления в систему счисления с основанием q
- •5.3. Хранение информации в памяти эвм
- •5.3.1. Хранение в эвм целых чисел
- •5.4. Представление целых отрицательных чисел
- •Обратный код числа
- •Вопросы
- •Дополнительный код. Представление дробных чисел.
- •6.2. Хранение в эвм дробных чисел
- •Вопросы
- •Кодирование символьной и графической информации
- •7.1. Кодирование символьной информации
- •7.2. Кодирование звуковой и видеоинформации
- •8.2. Выполнение вычитания
- •8.3. Выполнение умножения
- •8.4. Выполнение деления
- •6. 5. Использование дополнительного кода
- •Федеральный закон Российской Федерации от 27 июля 2006 г. N 149-фз Об информации, информационных технологиях и о защите информации.
Мера информации синтаксического уровня
Количественная мера оценки информации этого уровня не связана со смыслом информации, ее содержанием. Для измерения информации на синтаксическом уровне используют характеристики объема и количества информации.
Рассмотрим понятие объема информации. Пусть задан алфавит, включающий множество символов, каждый из которых занимает в памяти объем которой равен u и пусть информация содержится сообщении, состоящего из N символов. Тогда объем информации сообщения можно определить, используя следующее выражение:
V=N×u (единица объема).
Под количеством информации понимают меру снятия неопределенности ситуации при получении сообщения.
Хартли в 1928 году предложил степень неопределенности ситуации с m исходами характеризовать числом: H(x) = log m. Если в результате получения сообщения y количество исходов ситуации уменьшается до n, то количество информации в полученном сообщении определяется выражением:
I(y) = H(x) H(y), (1)
где H(x) = log m неопределенность ситуации x до получения сообщения y, H(y) = log n неопределенность ситуации x, оставшаяся после получения сообщения y.
Для определения количества информации, содержащегося в сообщении, необходимо выполнить следующие действия:
-
Найти n количество исходов ситуации до получения сообщения;
-
Найти m количество исходов ситуации после получения сообщения;
-
Воспользоваться выражением (1) и найти количество информации, содержащиеся в сообщении.
За единицу количества информации принимается один бит, который соответствует сообщению о ситуации, имеющей два исхода до получения сообщения, а при получении сообщения единственный исход:
I(y) =log 2 log 1 =1 бит.
Применяемые единицы измерения количества информации приведены в таблице 1.3.
Таблица 3.1.
№ |
Название единицы |
Обозначение единицы |
Соотношения между единицами измерения количества информации |
1 |
байт |
байт |
1 байт = 8 бит |
2 |
Килобайт |
Кбайт |
1 Кбайт = 1024 байт = 210 байт |
3 |
Мегабайт |
Мбайт |
1 Мбайт = 1024 Кбайт = 220 байт |
4 |
Гигабайт |
Гбайт |
1 Гбайт = 1024 Мбайт = 230 байт |
5 |
Терабайт |
Тбайт |
1 Тбайт = 1024 Гбайт = 240 байт |
Рассмотрим пример определения количества информации содержащимся в сообщении.
В княжестве имеются автомобили только черного, серого и белого цвета. Количество информации сообщения «В аварию попал автомобиль не черного цвета» равен 8 log25 бит. Количество информации сообщения «В аварию попал серый автомобиль» равно 8 бит. Какое количество информации в сообщении о том, что в аварию попал автомобиль белого цвета.
Обозначим через x, y и z количество автомобилей черного, серого и белого цвета. Тогда в княжестве имеется x + y + z автомобилей.
Степень неопределенности при попадании одного автомобиля в аварию равна:
H1 = log2(x + y + z)
Степень неопределенности при попадании в аварию автомобиля не черного цвета (серого и белого автомобиля) равна:
H2 = log2(y + z).
Количество информации, содержащиеся в сообщении «В аварию попал автомобиль не черного цвета», равно:
I = H1 H2 = log2(x + y + z) log2(y + z) = 8 log25 (1).
Степень неопределенности при попадании в аварию серого автомобиля равна:
H3 = log2y.
Количество информации, содержащиеся в сообщении «В аварию попал серый автомобиль», равно:
I = H1 H3 = log2(x + y + z) log2y = 8 (2).
Предположим, что x + y + z = 8, а y+ z = 5 (3). Тогда из (2) находим y:
log2(x + y + z) log2y = 8 log2y = 8;
log2y = 0;
y = 1.
Тогда из (3) можно найти z:
y+ z = 5;
1 + z = 5;
z= 4.
Степень неопределенности при попадании в аварию белого автомобиля равна:
H4 = log2z = log24 = 2.
Количество информации, содержащиеся в сообщении «В аварию попал белый автомобиль», равно:
I = H1 H4 = log2(x + y + z) log2z = 8 2 =6.