Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Типовые расчеты с теорией.doc
Скачиваний:
64
Добавлен:
01.03.2016
Размер:
2.7 Mб
Скачать

Раздел 1. Основы информатики

I. Единицы измерения информации. Бит. Байт.

Согласно содержательному подходу в измерении информации (по определению К. Шеннона) 1 бит — объем информации такого сообщения, которое уменьшает неопределенность знания в два раза.

Если в результате получения сообщения достигнута полная ясность в данном вопросе (т.е. неопределенность исчезнет), говорят, что получена исчерпывающая информация. Это означает, что нет необходимости в дополнительной информации на эту тему. Напротив, если после получения сообщения неопределенность осталась прежней (сообщаемые сведения или уже были известны, или не относятся к делу), значит, информации получено не было (нулевая информация).

Бит – наименьшая единица представления информации. В информатике часто используется величина, называемая байтом (byte) и равная 8 битам.

Байт – наименьшая единица обработки и передачи информации.

Бит позволяет выбрать один вариант из двух возможных; байт, соответственно, 1 из 256 (28).

Наряду с байтами для измерения количества информации используются более крупные единицы:

1 Кбайт (один килобайт) = 210 байт = 1024 байт;

1 Мбайт (один мегабайт) = 210 Кбайт = 1024 Кбайт;

1 Гбайт (один гигабайт) = 210 Мбайт = 1024 Мбайт.

В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:

1 Терабайт (Тб) = 1024 Гбайт = 240 байта,

1 Петабайт (Пб) = 1024 Тбайт = 250 байта.

Пример. Упорядочите по возрастанию следующую последовательность:

1024 Мбайт, 11 Петабайт, 2224 Гбайт, 1 Терабайт.

Решение. Сначала приведем величины измерения количества информации к единой величине, удобной для данной последовательности. В данном случае – это Гбайт.

1024 Мбайт = 1 Гбайт, что меньше 1 Терабайт = 1024 Гбайт, что, в свою очередь меньше 2224 Гбайт и меньше 11 Петабайт,

Следовательно, последовательность, упорядоченная по возрастанию, имеет вид:

1024 Мбайт, 1 Терабайт, 2224 Гбайт, 11 Петабайт

II. Кодирование информации.

Компьютер может обрабатывать только информацию, представленную в числовой форме. Вся другая информация (тексты, звуки, изображения, показания приборов и т.д.) для обработки на компьютере должна быть преобразована в числовую форму.

Переход от одной формы представления информации к другой, более удобной для хранения, передачи или обработки, называется кодированием информации.

Кодирование – это операция преобразования знаков или групп знаков одной знаковой системы в знаки или группы знаков другой знаковой системы.

Как правило, все числа в компьютере представляются с помощью нулей и единиц, т.е. работа производится в двоичной системе счисления, поскольку при этом устройства для их обработки получаются значительно более простыми.

1. Кодирование текста.

При вводе в компьютер каждая буква кодируется определенным числом, а при выводе на внешние устройства (экран или печать) для восприятия человеком по этим числам строятся изображения букв. Соответствие между набором букв и числами называется кодировкой символов.

Алфавитный подход основан на том, что всякое сообщение можно закодировать с помощью конечной последовательности символов некоторого алфавита. Множество символов, используемых при записи текста, называется алфавитом. Количество символов в алфавите называется его мощностью.

Существует двоичный алфавит, который содержит только 2 символа, и его мощность равна двум.

Для представления текстовой информации в компьютере чаще всего используется алфавит мощностью 256 символов. Один символ из такого алфавита несет 8 бит информации, т.к. 28 = 256.

8 бит составляют один байт, следовательно, двоичный код каждого символа занимает 1 байт памяти ЭВМ. Традиционно для кодирования одного символа используется количество информации, равное 1 байту (8 битам). Все символы такого алфавита пронумерованы от 0 до 255, а каждому номеру соответствует 8-разрядный двоичный код от 00000000 до 11111111.

Для разных типов ЭВМ и операционных систем используются различные таблицы кодировки, отличающиеся порядком размещения символов алфавита в кодовой таблице. Международным стандартом на персональных компьютерах является таблица кодировки ASCII. Сообщения, записанные с помощью символов ASCII, используют алфавит из 256 символов.

Кроме того, в настоящее время существует еще ряд кодовых таблиц для русских букв. К ним относится таблица кодировки КОИ8, использующая алфавит из 256 символов.

Широкое распространение получил новый международный стандарт UNICODE, который отводит на каждый символ не один байт, а два, поэтому с его помощью можно закодировать не 256 символов, а 216 = 65536 различных символов.

Информативность последовательности символов не зависит от содержания сообщения.

Чтобы определить объем информации в сообщении при алфавитном подходе, нужно последовательно решить задачи:

  1. Определить количество информации (i) в одном символе по формуле 2i = N, где N – мощность алфавита,

  2. Определить количество символов в сообщении, учитывая знаки препинания и пробелы (m),

  3. Вычислить объем информации по формуле: V = i * m.

Пример. Закодировано текстовое сообщение «Десять букв», определить его информационный объем по системе ASCII и UNICODE.

Решение. Сообщение содержит 11 символов. Один символ из алфавита ASCII несет 8 бит информации, поэтому информационный объем по системе ASCII составит 11*8 бит = 88 бита = 11 байт.

Один символ из алфавита UNICODE несет 16 бит информации или 2 байта, поэтому информационный объем по системе UNICODE составит 11*16 бит = 176 бит = 22 байта.

Для двоичного сообщения той же длины информационный объем составляет 11 бит, т.к. N = 2, i = 1 бит, m = 11, V = 11 бит.