Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Основные понятия теории информации(c разметкой)....doc
Скачиваний:
6
Добавлен:
03.11.2018
Размер:
76.8 Кб
Скачать

2.3. Единицы измерения информации

В качестве единицы информации условились принять один бит (англ. bit - binary, digit - двоичная цифра).

Бит в теории информации - количество информации, которое содержится в двоичной цифре, может принимать значения 0 или 1 (1 – есть сигнал, 0 –нет сигнала). В вычислительной технике битом называют наименьшую "порцию" памяти компьютера, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.

Одним битом могут быть выражены два понятия: 0 или 1 (да или нет, черное или белое, истина или ложь и т.п.).

Увеличивая на единицу количество разрядов в системе двоичного кодирования, мы увеличиваем в два раза количество значений, которое может быть выражено в данной системе, то есть общая формула имеет вид:

где N - количество независимых кодируемых значений; m - разрядность двоичного кодирования, принятая в данной системе.

Бит - слишком мелкая единица измерения. На практике чаще применяется более крупная единица - байт, равная восьми битам.

Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера: 256 =28.

В большинстве современных ЭВМ при кодировании каждому символу соответствует своя последовательность из восьми нулей и единиц, т. е. байт. Наряду с байтами для измерения количества информации используются более крупные единицы:

8 бит = 1 байт (сокращенно б или Б),

1 Килобайт = 1024 Байт (сокращенно Кб или К),

1 Мегабайт = 1024 Кбайт (сокращенно Мб или М),

1 Гигабайт = 1024 Мбайт (сокращенно Гб или Г).