- •Единицы количества информации. Формула Хартли, формула Шеннона.
- •Формула Шеннона
- •Данные (операции с данными, кодирование данных). Основные типы структур данных.
- •Системы счисления. Перевод чисел из одной системы счисления в другую, основные операции над числами.
- •Файлы (понятие файла, атрибуты, имена файлов, их основные характеристики, операции с файлами).
- •Стандартные прикладные программы (блокнот, калькулятор, графический редактор Paint)
- •Системы компьютерной графики (принципы формирования изображения на экране, изобразительная, деловая, инженерная, научная графика, графические редакторы).
- •Презентации. Работа с ними и создание авторских.
- •Разновидности компьютерных вирусов. Антивирусные средства.
- •Средства печати (краткая характеристика основных типов по цвету, принцип действия, способы печати, формирования строк, ширина каретки, скорость, разрешающая способность, режимы печати)
- •Средства ввода информации в компьютер (клавиатура, основные группы клавиш, методика их использования; манипулятор "мышь", сканеры).
- •Жесткий диск, дисковод гибких дисков (характеристики, размер, тип, объём памяти, форматирование, дорожки, сектора). Накопители на оптических дисках.
- •Функционирование
- •Факторы воздействия компьютера на человека. Профилактические и оздоровительные рекомендации при работе с персональным компьютером.
- •Классификация прикладных программных средств.
- •2. Классическая архитектура эвм и принципы фон Неймана
- •3. Совершенствование и развитие внутренней структуры эвм
- •Классификация компьютеров (по назначению, по типоразмерам, по совместимости, по уровню специализации).
- •I. Классификация по назначению:
- •II. Классификация пк по типоразмерам:
- •Операционные системы. Операционная система Windows (понятие, основные функции, объекты и приемы управления).
- •Файловая структура (папка, каталог). Обслуживание файловой системы.
- •Глобальные сети (принципы организации, архитектура клиент-сервер, протоколы обмена информацией, адресация и виды информации в Интернете). Электронная почта.
- •Разновидности компьютерных вирусов. Антивирусные средства.
- •Средства печати (краткая характеристика основных типов по цвету, принцип действия, способы печати, формирования строк, ширина каретки, скорость, разрешающая способность, режимы печати)
- •Средства ввода информации в компьютер (клавиатура, основные группы клавиш, методика их использования; манипулятор "мышь", сканеры).
Единицы количества информации. Формула Хартли, формула Шеннона.
Единицы измерения информации служат для измерения объёма информации — величины, исчисляемой логарифмически. Это означает, что когда несколько объектов рассматриваются как один, количество возможных состояний перемножается, а количество информации — складывается. Не важно, идёт речь о случайных величинах в математике, регистрах цифровой памяти в технике или в квантовых системах в физике.
Чаще всего измерение информации касается объёма компьютерной памяти и объёма данных, передаваемых по цифровым каналам связи.
Объём информации можно представлять как логарифм[2]количества возможных состояний.
Наименьшее целое число, логарифм которого положителен — это 2. Соответствующая ему единица — бит — является основой исчисления информации в цифровой технике.
Единица, соответствующая числу 3 (трит) равна log23≈1,585 бита, числу 10 (хартли) — log210≈3.322 бита.
Такая единица как нат (nat), соответствующая натуральному логарифму применяется в инженерных и научных расчётах. В вычислительной технике она практически не применяется, так как основание натуральных логарифмов не является целым числом. В проводной технике связи (телеграф и телефон) и радио исторически впервые единица информации получила обозначение бод.
Целые количества бит отвечают количеству состояний, равному степеням двойки.
Особое название имеет 4 бита — ниббл (полубайт, тетрада, четыре двоичных разряда), которые вмещают в себя количество информации, содержащейся в одной шестнадцатеричной цифре.
Целые количества бит отвечают количеству состояний, равному степеням двойки.
Особое название имеет 4 бита — ниббл (полубайт, тетрада, четыре двоичных разряда), которые вмещают в себя количество информации, содержащейся в одной шестнадцатеричной цифре.
Для измерения больших количеств байтов служат единицы «килобайт» = [1000] байт и «Кбайт»[3](кибибайт, kibibyte) = 1024 байт (о путанице десятичных и двоичных единиц и терминов см. ниже). Такой порядок величин имеют, например:
Сектор диска обычно равен 512 байтам то есть половине Кбайта, хотя для некоторых устройств может быть равен одному или двум кибибайт.
Классический размер «блока» в файловых системах UNIX равен одному Кбайт (1024 байт).
«Страница памяти» в процессорах x86 (начиная с модели Intel 80386) имеет размер 4096 байт, то есть 4 Кбайт.
Объём информации, получаемой при считывании дискеты «3,5″ высокой плотности» равен 1440 Кбайт (ровно); другие форматы также исчисляются целым числом Кбайт.
Единицы «мегабайт» = 1024 килобайт = [1 000 000] байт и «мебибайт»[3] (mebibyte) = 1024 Кбайт = 1 048 576 байт применяются для измерения объёмов носителей информации.
Объём адресного пространства процессора Intel 8086 был равен 1 Мбайт.
Оперативную память и ёмкость CD-ROM меряют двоичными единицами (мебибайтами, хотя их так обычно не называют), но для объёма НЖМД десятичные мегабайты были более популярны.
Современные жёсткие диски имеют объёмы, выражаемые в этих единицах минимум шестизначными числами, поэтому для них применяются гигабайты.
Единицы «гигабайт» = 1024 мегабайт = [1 000 000] килобайт = [1 000 000 000] байт и «Гбайт»[3] (гибибайт, gibibyte) = 1024 Мбайт = 230 байт измеряют объём больших носителей информации, например жёстких дисков. Разница между двоичной и десятичной единицами уже превышает 7 %.
Размер 32-битного адресного пространства равен 4 Гбайт ≈ 4,295 Мбайт. Такой же порядок имеют размер DVD-ROM и современных носителей на флеш-памяти. Размеры жёстких дисков уже достигают сотен и тысяч гигабайт.
Для исчисления ещё больших объёмов информации имеются единицы терабайт и тебибайт (1012 и 240 байт соответственно),петабайт и пебибайт (1015 и 250 байт соответственно) и т. д.
В принципе, байт определяется для конкретного компьютера как минимальный шаг адресации памяти, который на старых машинах не обязательно был равен 8 битам (а память не обязательно состоит из битов — см., например: троичный компьютер). В современной традиции, байт часто считают равным восьми битам.
В таких обозначениях как байт (русское) или B (английское) под байт (B) подразумевается именно 8 бит, хотя сам термин «байт» не вполне корректен с точки зрения теории.
Во французском языке используются обозначения o, Ko, Mo и т. д. (от слова octet) дабы подчеркнуть, что речь идёт именно о 8 битах.
Долгое время разнице между множителями 1000 и 1024 старались не придавать большого значения. Во избежание недоразумений следует чётко понимать различие между:
двоичными кратными единицами, обозначаемыми согласно ГОСТ 8.417-2002 как «Кбайт», «Мбайт», «Гбайт» и т. д. (два в степенях кратных десяти);
единицами килобайт, мегабайт, гигабайт и т. д., понимаемыми как научные термины (десять в степенях, кратных трём),
эти единицы по определению равны, соответственно, 103, 106, 109 байтам и т. д.
В качестве терминов для «Кбайт», «Мбайт», «Гбайт» и т. д. МЭК предлагает «кибибайт», «мебибайт», «гибибайт» и т. д., однако эти термины критикуются за непроизносимость и не встречаются в устной речи.
В различных областях информатики предпочтения в употреблении десятичных и двоичных единиц тоже различны. Причём, хотя со времени стандартизации терминологии и обозначений прошло уже несколько лет, далеко не везде стремятся прояснить точное значение используемых единиц.
В английском языке для «киби»=1024 иногда используют прописную букву K, дабы подчеркнуть отличие от обозначаемой строчной буквой приставки СИ кило. Однако, такое обозначение не опирается на авторитетный стандарт, в отличие от российского ГОСТа касательно «Кбайт».
Формула Хартли определяет количество информации, содержащееся в сообщении длины n.
Имеется алфавит А, из букв которого составляется сообщение:
Количество возможных вариантов разных сообщений:
где N — возможное количество различных сообщений, шт; m — количество букв в алфавите, шт; n — количество букв в сообщении, шт.
Пример: Алфавит состоит из двух букв «B» и «X», длина сообщения 3 буквы — таким образом, m=2, n=3. При выбранных нами алфавите и длине сообщения можно составить разных сообщений «BBB», «BBX», «BXB», «BXX», «XBB», «XBX», «XXB», «XXX» — других вариантов нет.
Формула Хартли определяется:
где I — количество информации, бит.
При равновероятности символов формула Хартли переходит в собственную информацию.
Формула Хартли была предложена Ральфом Хартли в 1928 году как один из научных подходов к оценке сообщений.