- •Оглавление
- •Информация
- •Кодирование информации. Системы счисления.
- •Контрольные вопросы и задания для самостоятельного выполнения.
- •Системы счисления
- •Перевод чисел из одной позиционной системы счисления в другую Алгоритм перевода целых чисел из системы с основанием p в систему с основанием q.
- •Алгоритм перевода правильной дроби с основанием p в дробь с основанием q:
- •Алгоритм перевода чисел из системы счисления с основанием p в десятичную систему счисления:
- •Арифметические операции
- •Контрольные вопросы и задания для самостоятельного выполнения.
Оглавление
Оглавление 1
Информация 2
Кодирование информации. Системы счисления. 2
Контрольные вопросы и задания для самостоятельного выполнения. 4
Системы счисления 4
Перевод чисел из одной позиционной системы счисления в другую 5
Контрольные вопросы и задания для самостоятельного выполнения. 8
Информация
Понятие информации
Непрерывное сообщение может быть представлено непрерывной функцией, заданной на некотором интервале. Непрерывное сообщение можно преобразовать в дискретное (такая процедура называется дискретизацией). Любое непрерывное сообщение может быть представлено как дискретное, иначе говоря, последовательностью знаков некоторого алфавита.
Возможность дискретизации непрерывного сигнала с любой желаемой точностью (для возрастания точности достаточно уменьшить шаг) принципиально важна с точки зрения информатики. Компьютер – цифровая машина, т.е. внутреннее представление информации в нем дискретно. Дискретизация входной информации позволяет сделать её пригодной для компьютерной обработки.
Кодирование информации. Системы счисления.
У понятия «количество информации» существует два основных подхода:
вероятностный – развитый американским математиком Клодом Шенноном;
объёмный – возникший вследствие работ по созданию ЭВМ.
Сообщения обычно содержат информацию о каких – либо событиях. Количество информации для событий с различными вероятностями определяется по формуле Шеннона:
I – количество информации;
N – количество возможных событий;
pi – вероятности отдельных событий.
Если события равновероятны, то количество информации определяется по формуле Хартли:
или из показательного уравнения:
Для количественного выражения любой величины необходимо сначала определить единицу измерения.
За единицу количества информации принят 1 бит – количество информации, содержащееся в сообщении, уменьшающем неопределенность знаний в два раза.
Пример. Определить количество информации, связанное с появлением каждого символа в сообщениях, записанных на русском языке. Будем считать, что русский алфавит состоит из 33 букв и знака «пробел» для разделения слов. Тогда по формуле Хартли .
Очевидно, что в словах любого языка, различные буквы встречаются с неодинаковой частотой. Воспользовавшись известной таблицей вероятностной частоты употребления различных знаков русского алфавита и формулой Шеннона получим .
Объёмный подход
В двоичной системе счисления знаки 0 и 1 называют битами (от английского выражения Binary digiTs – двоичные цифры). В компьютере бит является наименьшей единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации, подсчитывается просто по числу требуемых для такой записи двоичных символов. При этом, в частности, не возможно нецелое число битов (в отличие от вероятностного подхода).
Для удобства использования введены и более крупные, чем бит, единицы количества информации. Так, двоичное слово из восьми знаков содержит один байт информации.
1 байт=8 битов=23 битов
1 Кбайт=210 байт=1024 байт
1 Мбайт=210 Кбайт=1024 Кбайт
1 Гбайт=210 Мбайт=1024 Мбайт
В прикладной информатике практически всегда количество информации понимается в объёмном смысле.