Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Системы счисления.doc
Скачиваний:
3
Добавлен:
03.11.2018
Размер:
175.1 Кб
Скачать

Оглавление

Оглавление 1

Информация 2

Кодирование информации. Системы счисления. 2

Контрольные вопросы и задания для самостоятельного выполнения. 4

Системы счисления 4

Перевод чисел из одной позиционной системы счисления в другую 5

Контрольные вопросы и задания для самостоятельного выполнения. 8

Информация

Понятие информации

Непрерывное сообщение может быть представлено непрерывной функцией, заданной на некотором интервале. Непрерывное сообщение можно преобразовать в дискретное (такая процедура называется дискретизацией). Любое непрерывное сообщение может быть представлено как дискретное, иначе говоря, последовательностью знаков некоторого алфавита.

Возможность дискретизации непрерывного сигнала с любой желаемой точностью (для возрастания точности достаточно уменьшить шаг) принципиально важна с точки зрения информатики. Компьютер – цифровая машина, т.е. внутреннее представление информации в нем дискретно. Дискретизация входной информации позволяет сделать её пригодной для компьютерной обработки.

Кодирование информации. Системы счисления.

У понятия «количество информации» существует два основных подхода:

вероятностный – развитый американским математиком Клодом Шенноном;

объёмный – возникший вследствие работ по созданию ЭВМ.

Сообщения обычно содержат информацию о каких – либо событиях. Количество информации для событий с различными вероятностями определяется по формуле Шеннона:

I – количество информации;

N – количество возможных событий;

pi – вероятности отдельных событий.

Если события равновероятны, то количество информации определяется по формуле Хартли:

или из показательного уравнения:

Для количественного выражения любой величины необходимо сначала определить единицу измерения.

За единицу количества информации принят 1 бит – количество информации, содержащееся в сообщении, уменьшающем неопределенность знаний в два раза.

Пример. Определить количество информации, связанное с появлением каждого символа в сообщениях, записанных на русском языке. Будем считать, что русский алфавит состоит из 33 букв и знака «пробел» для разделения слов. Тогда по формуле Хартли .

Очевидно, что в словах любого языка, различные буквы встречаются с неодинаковой частотой. Воспользовавшись известной таблицей вероятностной частоты употребления различных знаков русского алфавита и формулой Шеннона получим .

Объёмный подход

В двоичной системе счисления знаки 0 и 1 называют битами (от английского выражения Binary digiTs – двоичные цифры). В компьютере бит является наименьшей единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации, подсчитывается просто по числу требуемых для такой записи двоичных символов. При этом, в частности, не возможно нецелое число битов (в отличие от вероятностного подхода).

Для удобства использования введены и более крупные, чем бит, единицы количества информации. Так, двоичное слово из восьми знаков содержит один байт информации.

1 байт=8 битов=23 битов

1 Кбайт=210 байт=1024 байт

1 Мбайт=210 Кбайт=1024 Кбайт

1 Гбайт=210 Мбайт=1024 Мбайт

В прикладной информатике практически всегда количество информации понимается в объёмном смысле.