- •Оглавление
- •Глава 2 63
- •Глава 3 108
- •Глава 4 159
- •Глава 5 185
- •Глава 6 219
- •Глава 7 265
- •Глава 8 312
- •Используемые сокращения
- •Введение
- •Глава 1 информация и данные
- •1.1. Информация и информатика
- •1.2. Основные виды информации и её характеристика
- •1.3. Воспроизведение и обработка данных
- •1.4. Информационный процесс и свойства информации
- •1.5. Основные операции с данными и их характеристики
- •1.6. Принципы классификации и кодирования данных
- •1.7. Информационные системы и технологии
- •1.8. Формирование информационного общества на Украине
- •1. Создание основ Информационного общества.
- •2. Внедрение более дешевого и надежного интернет для всех.
- •3. Развитие человеческого потенциала.
- •4. Распространение современных информационных технологий.
- •Контрольные вопросы
- •Глава 2 история создания и устройство персональных компьютеров
- •2.1. История создания и развития электронно – вычислительной техники
- •2.2. Принципы построения персональных компьютеров
- •2.3. Характеристика устройств персональных компьютеров
- •Системный блок (рис. 2.23).
- •Материнская плата (рис. 2.24)
- •Процессоры (рис. 2.25)
- •Постоянное запоминающее устройство (рис. 2.27)
- •Оперативная память (рис. 2.28)
- •Видеоадаптер (рис. 2.29)
- •Накопитель на жестких магнитных дисках (рис. 2.30)
- •Внешние устройства компьютера Мышь (рис. 2.32)
- •Клавиатура пк (рис. 2.33)
- •Мониторы (рис. 2.34)
- •Принтеры (рис. 2.37)
- •Сканеры (рис. 2.39)
- •Плоттеры (рис. 2.40)
- •2.4. Пути создания новых вычислительных систем
- •Контрольные вопросы
- •Глава 3 программное обеспечение персональных компьютеров
- •3.1. Назначение и виды программного обеспечения
- •3.2. Основные функции, принципы работы и виды операционных систем
- •3 .3. Особенности операционной системы Windows xp
- •3.4. Принципы работы с операционной системой Windows xp
- •3.5. Программа Проводник операционной системы Windows xp
- •3.6. Прикладное программное обеспечение
- •3.7. Характеристика рынка программных продуктов
- •Контрольные вопросы
- •Глава 4 текстовые редакторы
- •4.1. Функциональные возможности текстовых процессоров
- •4 .2. Текстовый редактор ms Word
- •Контрольные вопросы
- •Глава 5 электронные таблицы
- •5.1. Общие сведения об электронных таблицах
- •5.2. Электронная таблица ms Excel
- •5.3. Ввод, редактирование и форматирование данных в ms Excel
- •5.4. Применение операторов в формулах и использование мастера функций
- •5.5. Построение диаграмм и графиков
- •5.6. Консолидация данных
- •5.7. Сводные таблицы
- •Контрольные вопросы
- •Глава 6 базы данных
- •6.1. Характеристика типов баз данных
- •6.2. Характеристика систем управления базами данных
- •6.3. Общая характеристика системы управления базами данных ms Access
- •6.4. Общие принципы создания базы данных в ms Access
- •6.5. Рабочая среда ms Access
- •6.6. Создание баз данных ms Access
- •6.7. Создание и использование запросов
- •6.8. Создание и применение форм
- •6.9. Создание и печать отчетов
- •К онтрольные вопросы
- •Глава 7 интернет и электронная торговля
- •7.1. История создания и развития сети интернет
- •7.2. Передача информации в сети интернет
- •7.3. Программное обеспечение при работе в сети интернет
- •7.4. Электронная торговля в интернет
- •Контрольные вопросы
- •Глава 8 компьютерная безопасность
- •8.1. Возможные угрозы компьютерной информации
- •8.2. Несанкционированный доступ к информации и ресурсам
- •8.3. Компьютерные вирусы
- •8.4. Основные пути комплексной защиты компьютерной информации.
- •8.5. Антивирусные программы Антивирус Касперского (kav)
- •Антивирусная программа Dr.Web
- •Антивирусная программа nod32
- •Украинский Национальный Антивирус (una)
- •8.6. Электронная цифровая подпись
- •Подпись файла kafedra.Doc верна (Автор: Иваненко Василий Семенович)
- •Контрольные вопросы
- •Литература
1.5. Основные операции с данными и их характеристики
Данные – диалектическая составная часть информации. Они представляют собой зарегистрированные сигналы. В соответствии с методом регистрации данные могут храниться и транспортироваться на носителях различных видов. Самым распространенным носителем данных является бумага. На бумаге данные регистрируются путем изменения оптических характеристик ее поверхности.
Любой носитель можно характеризовать параметром разрешающей способности (количеством данных, записанных в принятой для носителя единице измерения) и динамическим диапазоном (отношением амплитуд максимального и минимального регистрируемых сигналов). От этих свойств носителя нередко зависят такие свойства информации, как полнота, доступность и достоверность. Обработка и преобразование данных различных форматов являются важнейшими задачами, как общей информатики, так и её прикладных ветвей.
Обработка данных включает в себя множество различных операций (рис. 1.11). Приведенный список операций с данными не является исчерпывающим. Важно другое: работа с информацией может иметь огромную трудоемкость, что и определяет актуальность задачи автоматизации приведенных операций.
С развитием средств связи и вычислительной техники и их использованием для передачи и обработки информации возникла необходимость найти методы измерения количественных характеристик информации.
В настоящее время для измерения количества информации существуют два подхода.
Первый подход основан на определении «физического объема» информации:
Физический объем информации – это длина представляемого текста.
Информационная емкость – количество передаваемой информации.
Компактность – соотношение информационного и физического объемов.
Информационная плотность – соотношение информационной емкости и информационного объема.
Единицами измерения объемов нормативного текста могут быть: количество статей в нормативно – правовом акте, число типографских страниц, которые занимает изучаемый нормативный акт, число фраз, содержащихся в данном акте, и т. д.
В торой подход основан на положениях теории информации, разработанной американским ученым К. Шенноном. Здесь фундаментальное значение имеют два понятия: неопределенность и энтропия.
Неопределенность – это отсутствие информации о системе и ее состояниях. Следовательно, понятия информации и неопределенности тесно связаны и дополняют друг друга. Чем более увеличивается знание об исследуемом событии или явлении, тем меньше становится неопределенность.
Информация в сообщении приобретает смысл только тогда, когда состояние исследуемой системы «случайно» (неопределенно, неизвестно). Полученные сведения о событиях или явлениях тем ценнее и содержательнее, чем больше была неопределенность о них до получения этих сведений.
Энтропия – это количественная мера неопределенности. При получении сведений об объекте мера неопределенности уменьшается. Величина, на которую уменьшилась энтропия, и есть количество полученной информации.
Для рассмотрения формулы К. Шеннона примем следующие обозначения:
Н0(х) – энтропия случайной величины до получения сообщения;
Н1(х) – энтропия случайной величины после получения сообщения о ее состоянии (остаточная энтропия);
Н(х) – разность величин Н1(х) и Н0(х).
Тогда количество информации может быть представлено в следующем виде:
Н(х) = Н0(х) – Н1(х).
К. Шеннон предложил знаменитую формулу для измерения энтропии
Н(х) = – Рi * log Рi , (1.1)
где: Н(х) – символ энтропии;
х – исследуемое случайное событие (явление);
Рi – вероятность реализации i – го элемента сложного явления (i = 1…n);
п – число состояний системы;
– знак суммы;
1оg Рi – логарифм вероятности отдельно взятого элементарного события.
В данной формуле логарифм (показатель степени, в которую нужно возвести некоторое число - основание, чтобы получить данное) используется с целью удобства при выполнении математических действий (сложения, вычитания и др.) над различными величинами, получаемыми в результате измерения информации.
Рассчитываемая таким образом мера неопределенности случайного события может принимать значения от 0 до 1 включительно.
Формула К. Шеннона позволяет ввести единицу информации. За единицу информации принято считать такое количество информации, которое содержится в исходе опыта (сообщения), когда за возможные принимаются только два состояния (1 или 0). При этом каждое состояние может быть реализовано с одинаковой вероятностью.
Приведем элементарный расчет.
Условия:
Р1 = Р2 = 0,5; n = 2.
Подставляем эти данные в формулу Шеннона, получаем:
H(х) = – [0,5 log 1/2 + 0,5 log 1/2]= – [0,5( – 1) + 0,5( – 1)] = 1.
Полученная единица количества информации, представляющая собой выбор из двух равновероятных событий, получила название двоичной единицы, или бита.
Для радиоэлектронных элементов (радиоламп, полупроводниковых элементов, конденсаторов), которые в основном использовались и используются в вычислительных машинах, характерно наличие двух устойчивых состояний. Например, электронная лампа может быть «открыта» (тогда через нее идет ток) или «заперта» (ток через нее не проходит). По тому же принципу «да» или «нет» работают и полупроводниковые элементы, которые сейчас уже полностью вытеснили радиолампы из вычислительной техники. Эти свойства радиоэлектронных элементов и служат основной причиной применения в вычислительной технике двоичной системы счисления.
В двоичной системы счисления числа записываются с помощью двух цифр 0 и 1 и называются двоичными. Система перевода данных в двоичные числа называется двоичным кодированием. Битом называется такое количество информации, которое можно представить одноразрядным двоичным числом (0 или 1).
Ч
1 байт = 8 бит;
1 Килобайт =
1024 бита;
1 Мегабайт = 1024
Кбайт;
1 Гигабайт
= 1024 Мбайт
В компьютере один знак текста требует объем памяти, равный одному байту. Стандартный лист формата А4 содержит примерно 3200 знаков размера 12 пунктов. Это примерно 3 Кб. Таким образом, на жестком диске компьютера объемом 20 гигабайт может храниться примерно 60 – 70 миллионов таких страниц.
Одной из важнейших операций, проводимых с данными, является их транспортировка. В большинстве случаев транспортировка производится по каналам связи, которые создавались для передачи аналоговых электрических сигналов (речевых сообщений). Цифровая информация также передается по этим каналам, но она предварительно преобразуется в аналоговый сигнал с помощью различных видов модуляции. Виды сигналов в каналах связи и с выхода компьютера представлены на рисунке 1.12, где по горизонтальной оси отложено время, по вертикальной – амплитуда сигналов.
Для измерения скорости передачи цифровых данных применяется единица измерения бит/сек (количество передаваемых бит в секунду). В среднем, при передаче данных каждым десяти символам соответствует один символ машинописного текста. Часто скорость передачи данных измеряют в символах в секунду (обозначается CPS – от английского Character Per Second).