- •Содержание
- •Тема 1. Информация и информатика
- •Понятие информации
- •Свойства информации
- •Объективность информации
- •Полнота информации. Моделирование
- •Достоверность информации
- •Адекватность информации
- •Актуальность информации
- •Доступность информации
- •Информационные процессы и системы
- •Информационные ресурсы и технологии
- •Информатика и её предыстория
- •Структура информатики и её связь с другими науками
- •Тема 2. Количество и качество информации
- •Уровни проблем передачи информации
- •Меры информации
- •Меры информации синтаксического уровня
- •Меры информации семантического уровня
- •Меры информации прагматического уровня
- •Качество информации
- •Виды и формы представления информации в информационных системах
- •Тема 3. Представление числовой информации в ЭВМ
- •Системы счисления
- •Позиционные системы счисления
- •Перевод чисел из одной системы счисления в другую
- •Двоичная, восьмеричная и шестнадцатеричная системы счисления
- •Двоично-десятичная система счисления
- •Представление числовой информации в ЭВМ
- •Прямой, обратный и дополнительный коды
- •Выполнение арифметических операций над целыми числами
- •Смещённый код и код Грея
- •Представление вещественных чисел в ЭВМ
- •Выполнение арифметических действий над нормализованными числами
- •Погрешности представления числовой информации в ЭВМ
- •Тема 4. Кодирование символьной, графической и мультимедийной информации в ЭВМ
- •Кодирование и запись информации
- •Принципы кодирования информации
- •Аналоговое кодирование
- •Табличное кодирование
- •Цифровое кодирование
- •Аналого-цифровое преобразование
- •Основы цифрового кодирования
- •Двоичный разряд и его особенности
- •Байт
- •Правила записи чисел в различных системах счисления
- •Ранние системы кодирования текстов
- •Двоичное кодирование текста. Система Бэкона
- •Двоичный код переменной длины. Система Морзе
- •Система Бодо. Введение управляющих кодов
- •Система Мюррея. Введение кодов форматирования
- •Система FIELDDATA. Введение кодов-разделителей.
- •Схема кодирования ASCII
- •Отечественные схемы 8-разрядного кодирования текстов
- •Схема кодирования ISO-8859
- •Схема кодирования CP 866
- •Схема кодирования Windows-1251
- •Схема кодирования КОИ-8Р
- •Технология кодирования Unicode
- •Значение стандарта Unicode
- •Механизмы трансформации Unicode
- •Механизм UTF-8
- •Механизм UTF-16
- •Механизм UTF-7
- •Цифровое кодирование изображений
- •Растровая модель компьютерной графики
- •Векторная модель
- •Трёхмерная графическая модель
- •Характеристика графических моделей
- •Кодирование растровых изображений
- •Оптическое разрешение изображения
- •Глубина цвета
- •Кодирование цвета
- •Механизмы образования цвета
- •Теоретические модели RGB и CMY
- •Практические модели sRGB и CMYK
- •Разрядность кодирования цвета
- •Оценка объёма выборки данных
- •Кодирование звукозаписей
- •Цифровое кодирование сигнала
- •Дискретизация сигнала
- •Квантование импульсов сигнала
- •Оценка размера звуковой выборки данных
- •Поток данных
- •Кодирование видеозаписей
- •Оценка размера выборки видеоданных
- •Поток данных при видеозаписи
- •Сжатие данных при кодировании
- •Теоретические аспекты сжатия данных
- •Как измерить данные?
- •Минимальная выборка данных
- •Избыточность кодирования
- •Снижение избыточности данных
- •Обратимость методов сжатия данных
- •Обратимые методы сжатия данных
- •Групповое сжатие
- •Сжатие по словарю
- •Необратимые методы сжатия данных
- •Необратимое сжатие графики. Технология JPEG
- •Необратимое сжатие видео. Технология MPEG
- •Необратимое сжатие звука (технология МР3)
- •Тема 5. Логические функции
- •Основные законы и постулаты алгебры логики
- •Аксиомы (постулаты) алгебры логики
- •Законы алгебры логики
- •Представление функций алгебры логики
- •Тема 6. Помехоустойчивое кодирование
- •Основные определения теории помехоустойчивого кодирования
- •Общий подход к обнаружению ошибок
- •Общий подход к исправлению ошибок
- •Информационная избыточность помехоустойчивых кодов
- •Код Хэмминга
- •Линейные групповые коды
- •Циклические коды
- •Тема 7. Компьютерная обработка информации
- •Поколения электронных вычислительных машин
- •Классификация средств обработки информации
- •Классификация программного обеспечения
- •Системное программное обеспечение ЭВМ
- •Инструментарий технологии программирования
- •Пакеты прикладных программ
- •Тема 8. Автоматизация работы с документами
- •Оформление электронных документов
- •Размер листа
- •Ориентация листа
- •Печатные поля
- •Группировка страниц
- •Колонтитулы
- •Работа с разделами документа
- •Текстовые абзацы, их функции и свойства
- •Свойства шрифта абзаца
- •Выравнивание и переносы
- •Отступы и интервалы
- •Оформление списков, записей и таблиц
- •Оформление списков
- •Оформление записей
- •Параметры табуляции
- •Способ заполнения полей
- •Оформление таблиц
- •Взаимодействие изображений с текстом
- •Способы вставки изображений в документ
- •Режимы взаимодействия изображений и текста
- •Представление нетекстовых объектов в документе
- •Управление представлением изображений
- •Представление невизуальных объектов
- •Визуализация гиперссылкой
- •Визуализация изображением
- •Визуализация значком
- •Числовые диаграммы
- •Структура диаграммы
- •Основные элементы диаграммы
- •Типы диаграмм
- •Автоматизация документооборота
- •Стадии документооборота
- •Принципы стилевого оформления документов
- •Стиль как информационный объект
- •Принцип единства функционального оформления
- •Принцип наследования свойств стилей
- •Применение шаблонов документов
- •Автоматизация настройки программ с помощью шаблонов
- •Принцип наследования шаблонов
- •Корневой шаблон
- •Технология подготовки документов слияния
- •Тема 9. Защита информации
- •Информационные угрозы. Цели и объекты защиты информации
- •Юридические меры защиты информации
- •Способы защиты информации
- •Защита информации от несанкционированного доступа
- •Средства безопасности операционных систем семейства Windows
- •Способы защиты документов Microsoft Office
- •Защита от потерь информации
- •Действия при сбоях в работе программ
- •Вредоносные программы
- •Источники и основные признаки заражения. Способы защиты
- •Средства защиты от вредоносных программ
- •Принцип достаточности защиты
приходящуюся в среднем на одно состояние, называют энтропией дискретного источника инфор-
мации.
Hpi log pi
i 1N
(4)
Если снова ориентироваться на измерение неопределённости в двоичных единицах, то основание логарифма следует принять равным двум.
Hpi log2 pi
i 1N
.
(5)
При равновероятных выборах все
H |
N |
|
p N |
1 |
p log |
|
|||
2 |
|
|||
|
i |
i |
N |
|
|
i 1 |
|
|
|
|
|
|
|
log |
2 |
|
и формула (5) преобразуется в формулу Р. Хартли (2):
1 |
N |
1 |
log |
|
1 log2 |
N log2 |
N . |
N |
N |
2 |
|||||
|
|
|
|
|
|
Предложенная мера была названа энтропией не случайно. Дело в том, что формальная структура выражения (4) совпадает с энтропией физической системы, определённой ранее Больцманом. Согласно второму закону термодинамики энтропия замкнутого пространства определяется выра-
жением:
|
1 |
N |
|
m |
||
H |
|
|
mi |
ln |
|
i |
M |
|
M |
|
|||
|
П i 1 |
|
П |
|||
|
|
|
|
, где |
— число молекул в данном пространстве; |
— число мо- |
лекул, обладающих скоростью |
. Так как |
|
есть вероятность того, что молекула имеет ско- |
|
рость , то
можно записать как
H
pi ln
i 1N
pi
. Данная формула полностью совпадает с (4)
— в обоих случаях величина характеризует степень разнообразия системы. |
|
|||||
|
Используя формулы (3) и (5), можно определить избыточность алфавита источника сооб- |
|||||
щений — |
, которая показывает, насколько рационально применяются символы данного алфавита: |
|||||
|
|
|
( ) |
( ) |
, |
(6) |
|
|
( |
) |
|||
|
|
|
|
|||
где |
( |
) — максимально возможная энтропия, определяемая по формуле (3); |
( ) — энтропия |
|||
источника, определяемая по формуле (5). |
|
|
|
Суть данной меры заключается в том, что при равновероятном выборе ту же информационную нагрузку на знак можно обеспечить, используя алфавит меньшего объёма, чем в случае с неравновероятным выбором.
Меры информации семантического уровня
Для измерения смыслового содержания информации, т.е. её количества на семантическом уровне, наибольшее распространение получила тезаурусная мера, которая связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение. Действительно, для понимания и использования полученной информации получатель должен обладать определенным запасом знаний. Полное незнание предмета не позволяет извлечь полезную информацию из принятого сообщения об этом предмете. По мере роста знаний о предмете растёт и количество полезной информации, извлекаемой из сообщения.
34
Если назвать имеющиеся у получателя знания о данном предмете «тезаурусом» (т.е. неким сводом слов, понятий, названий объектов, связанных смысловыми связями), то количество информации, содержащееся в некотором сообщении, можно оценить степенью изменения индивидуального тезауруса под воздействием данного сообщения.
Тезаурус — совокупность сведений, которыми располагает пользователь или система.
Иными словами, количество семантической информации, извлекаемой получателем из поступающих сообщений, зависит от степени подготовленности его тезауруса для восприятия такой информации.
В зависимости от соотношений между смысловым содержанием информации и тезаурусом пользователя изменяется количество семантической информации , воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус. Характер такой зависимости показан на рисунке 3. Рассмотрим два предельных случая, когда количество семантической информации равно
0:
|
при |
пользователь не воспринимает (не понимает) поступающую информацию; |
|
при |
пользователь «всё знает», и поступающая информация ему не нужна. |
Рисунок 3 — Зависимость количества семантической информации, воспринимаемой потребителем, от его тезауруса ( )
Максимальное количество семантической информации потребитель приобретает при согла-
совании её смыслового содержания со своим тезаурусом ( ), когда поступающая информация понятна пользователю и несёт ему ранее неизвестные (отсутствующие в его тезаурусе) сведения.
Следовательно, количество семантической информации в сообщении, количество новых знаний, получаемых пользователем, является величиной относительной. Одно и то же сообщение может иметь смысловое содержание для компетентного пользователя и быть бессмысленным для пользователя некомпетентного.
При оценке семантического (содержательного) аспекта информации необходимо стремиться к согласованию величин и .
Относительной мерой количества семантической информации может служить коэффициент содержательности , который определяется как отношение количества семантической информации к её объёму:
35
.
Ещё один подход к семантическим оценкам информации, развиваемый в рамках науковедения, заключается в том, что в качестве основного показателя семантической ценности информации, содержащейся в анализируемом документе (сообщении, публикации), принимается количество ссылок на него в других документах. Конкретные показатели формируются на основе статистической обработки количества ссылок в различных выборках.
Меры информации прагматического уровня
Эта мера определяет полезность информации (ценность) для достижения пользователем поставленной цели. Она также величина относительная, обусловленная особенностями использования этой информации в той или иной системе.
Одним из первых отечественных ученых к этой проблеме обратился А. А. Харкевич, который предложил принять за меру ценности информации количество информации, необходимое для достижения поставленной цели, т.е. рассчитывать приращение вероятности достижения цели. Так, если
до получения информации вероятность достижения цели равнялась |
, а после её получения — , |
||||
то ценность информации определяется как логарифм отношения |
|
: |
|
||
. |
(7) |
||||
|
|
|
|||
|
|
Таким образом, ценность информации при этом измеряется в единицах информации, в данном случае в битах.
Выражение (7) можно рассматривать как результат нормировки числа исходов. В пояснение на рисунке 4 приведены три схемы, на которых приняты одинаковые значения числа исходов 2 и 6 для точек 0 и 1 соответственно. Исходное положение — точка 0. На основании полученной информации совершается переход в точку 1. Цель обозначена крестиком. Благоприятные исходы изображены линиями, ведущими к цели. Определим ценность полученной информации во всех трёх случаях:
а) число благоприятных исходов равно трём: |
|
, |
|
|
|
|
|
|
|
|
|
и, следовательно, |
||||||||||||||||||
|
|
|
|
|
|
|
||||||||||||||||||||||||
( |
|
|
|
|
) |
|
|
|
|
|
|
|
; |
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||
б) имеется один благоприятный исход: |
|
|
, |
|
|
|
|
|
, |
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||
( |
|
|
|
|
|
) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
; |
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
в) число благоприятных исходов равно четырём: |
|
|
|
|
|
, |
|
|
|
|
, |
|||||||||||||||||||
|
|
|
|
|
|
|||||||||||||||||||||||||
( |
|
|
|
|
|
|
) |
|
|
|
|
|
|
|
|
|
|
|
. |
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
В примере б) получена отрицательная ценность информации (отрицательная информация). Такую информацию, увеличивающую исходную неопределённость и уменьшающую вероятность достижения цели, называют дезинформацией. Таким образом, в примере б) мы получили дезинформацию в 1,58 двоичной единицы.
36