- •Информатика
- •Раздел 1. Организационно-методический 9
- •Раздел 2. Феномен информации 18
- •Раздел 3. Количество информации 30
- •Раздел 4. Кодирование информации 39
- •Раздел 5. История развития эвм 64
- •Раздел 6. Аппаратное обеспечение компьютера 71
- •Раздел 7. Программное обеспечение компьютера 98
- •Раздел 8. Работа в текстовом редакторе ms Word 131
- •Раздел 9. Работа в редакторе электронных таблиц ms Excel 147
- •Раздел 10. Компьютерные сети. Интернет 159
- •Введение
- •Раздел 1.Организационно-методический
- •1.1.Цели и задачи дисциплины
- •1.2.Требования к уровню подготовки студента.
- •1.3.Содержание разделов дисциплины
- •Тема 5. Лвс и сеть Интернет
- •1.4.Задания для контрольной работы
- •Задание №1 ms Word. Строгое форматирование текстов
- •Задание №2 ms Word. Художественное оформление текстов Вариант 1
- •Вариант 2
- •Задание №3 ms Excel. Форматирование таблиц, вычисления и создание диаграмм
- •Вариант 1
- •Вариант 2
- •Вариант 3
- •Вариант 4
- •Задание №4 ms Excel. Работа с функциями
- •Раздел 2.Феномен информации
- •2.1.Информация – это…
- •2.2.Эволюция материи
- •2.3.Теория отражения
- •2.4.Носители информации, память
- •2.5.Носители информации вещество и поле
- •2.6.Процесс сообщения
- •2.7.Сообщение во времени. Сигнал.
- •2.8.Непрерывное и дискретное
- •2.9.Знания
- •2.10.Целенаправленная передача информации
- •2.11.Данные
- •Раздел 3.Количество информации
- •3.2.Неопределенность, количество информации и энтропия
- •3.3.Формула Шеннона
- •3.4.Формула Хартли
- •3.5.Количество информации, получаемой в процессе сообщения
- •3.6.Задачи
- •Раздел 4.Кодирование информации
- •4.1.Кодирование чисел. Системы счисления
- •4.1.1.Перевод целых чисел из системы счисления с основанием k в десятичную систему счисления
- •4.1.2.Двоичная система счисления
- •4.1.3.Перевод целых чисел из десятичной системы счисления в систему счисления с другим основанием
- •4.1.4.Шестнадцатеричная система счисления
- •4.1.5.Вавилонская (шестидесятеричная) система счисления
- •4.1.6.Задачи
- •4.2.Кодирование двоичным кодом
- •4.3.Кодирование символов. Байт.
- •4.3.1.Юникод. Utf-8
- •4.3.2.Задачи
- •4.4.Единицы измерения объема данных и ёмкости памяти: килобайты, мегабайты, гигабайты…
- •4.4.1.Задачи
- •4.5.Кодирование графической информации
- •4.5.1.Восприятие цвета
- •4.5.2.Цветовые модели rgb и cmyk
- •4.5.3.Другие цветовые модели
- •4.5.4.Некоторые принципы уменьшения объема графических файлов
- •4.5.5.Задачи
- •4.6.Кодирование звуковой информации
- •4.6.1.Цифро-аналоговое и аналого-цифровое преобразование звуковой информации
- •4.6.2.Параметры семплирования
- •4.6.3.Задачи
- •Раздел 5.История развития эвм
- •5.1.Поколения эвм
- •5.2.Типы и назначение компьютеров
- •5.3.Задачи
- •Раздел 6.Аппаратное обеспечение компьютера
- •6.1.Устройства, входящие в состав системного блока
- •6.1.1.Материнская плата
- •6.1.2.Центральный процессор
- •6.1.3.Оперативная память
- •6.1.4.Жесткий диск
- •6.1.5.Графическая плата
- •6.1.6.Звуковая плата
- •6.1.7.Сетевая плата
- •6.1.9.Дисковод 3,5’’
- •6.1.10.Накопители на компакт-дисках
- •6.1.11.Накопители на dvd дисках
- •6.1.12.Флэш-память
- •6.2.Периферийные устройства
- •6.2.1.Клавиатура
- •6.2.2.Манипуляторы
- •6.2.3.Сканер
- •6.2.4.Цифровой фотоаппарат
- •6.2.5.Мониторы электронно-лучевые (crt)
- •6.2.6.Мониторы жидкокристаллические (lcd)
- •6.2.7.Плазменные панели (pdp)
- •6.2.8.Принтеры
- •6.2.8.1Матричные принтеры
- •6.2.8.2Струйные принтеры (Ink Jet)
- •6.2.8.3Лазерные принтеры (Laser Jet)
- •6.2.9.Плоттер
- •6.2.10.Модем
- •6.3.Конфигурация компьютера
- •6.4.Задачи
- •Раздел 7.Программное обеспечение компьютера
- •7.1.Системное программное обеспечение. Операционные системы (ос)
- •7.1.1.Семейства и хронология операционных систем
- •7.1.2.Правовая охрана программ и gnu gpl
- •7.1.2.1По с открытым кодом (Open source)
- •7.1.5.Файловая система
- •7.1.6.Драйверы
- •7.1.7.Вредоносные программы и антивирусные средства
- •7.1.7.1Вирусы
- •7.1.7.2Сетевые черви
- •7.1.7.3Троянские программы
- •7.1.7.3.1Утилиты несанкционированного удаленного администрирования
- •7.1.7.3.2Утилиты для проведения dDoS-атак
- •7.1.7.3.3Шпионское и рекламное по, программы дозвона
- •7.1.7.3.4Серверы рассылки спама
- •7.1.7.4Административные меры борьбы с вирусами
- •7.1.7.5Признаки появления вирусов
- •7.1.7.6Краткий обзор антивирусных пакетов
- •7.1.8.Архиваторы
- •7.1.9.Программы обслуживания жестких дисков
- •7.1.10.Задачи
- •7.2.Прикладное программное обеспечение
- •7.2.1.Средства обработки текстовой информации
- •7.2.2.Средства обработки табличной информации
- •7.2.3.Средства обработки графической информации
- •7.2.3.1Растровая графика
- •7.2.3.2Векторная графика
- •7.2.4.Системы управления базами данных (субд)
- •7.2.5.Средства разработки презентаций
- •7.2.6.Автоматизация ввода информации в компьютер
- •7.2.7.Автоматизация перевода текста
- •7.2.8.Издательские системы
- •7.2.9.Системы автоматизации бухгалтерской деятельности
- •7.2.10.Прочее ппо
- •7.2.11.Задачи
- •Раздел 8.Работа в текстовом редакторе ms Word
- •8.1.Правила набора текстовых документов
- •8.2.Стили и шаблоны
- •8.2.1.Понятия шаблона и стиля документа
- •8.2.2.Использование стилей
- •8.2.3.Иерархические стили заголовков. Автоматическая генерация оглавления
- •8.2.4.Задачи
- •Раздел 9.Работа в редакторе электронных таблиц ms Excel
- •9.1.Модель ячейки в ms Excel
- •9.2.Ввод и редактирование данных
- •9.2.1.Ввод данных
- •9.2.1.1Правила ввода текста и чисел
- •9.2.1.2Форматирование текстовых полей
- •9.2.1.3Правила ввода формул
- •9.2.2.Редактирование данных
- •9.2.3.Копирование формул
- •9.2.4.Относительная и абсолютная адресация
- •9.3.Построение диаграмм
- •9.4.Задачи
- •Раздел 10.Компьютерные сети. Интернет
- •10.1.Локальная вычислительная сеть
- •10.2.Сеть сетей
- •10.3.Адресация в Интернете
- •10.3.3.Система адресации url
- •10.4.Обзор сервисов Интернета
- •10.5.Семейство протоколов tcp/ip
- •10.6.Архитектура «клиент-сервер»
- •10.6.1.Электронная почта (e-mail)
- •10.6.1.1Проблемы и правила сетевого этикета
- •10.6.1.2Спам
- •10.6.1.3Смайлики :-)
- •10.6.2.1Html-разметка
- •10.6.2.2Web-сайт организации
- •10.6.2.3Поиск во Всемирной паутине
- •10.6.2.4История Всемирной паутины
- •10.6.2.5Перспективы развития
- •10.6.3.Задачи
- •Библиографический список
3.4.Формула Хартли
Мы уже упоминали, что формула Хартли – частный случай формулы Шеннона для равновероятных альтернатив.
Подставив в формулу (1) вместо pi его (в равновероятном случае не зависящее от i) значение , получим:
, таким образом, формула Хартли выглядит очень просто:
(2)
Из нее явно следует, что чем больше количество альтернатив (N), тем больше неопределенность (H). Эти величины связаны в формуле (2) не линейно, а через двоичный логарифм. Логарифмирование по основанию 2 и приводит количество вариантов к единицам измерения информации – битам.
Заметьте, что энтропия будет являться целым числом лишь в том случае, если N является степенью числа 2, т.е. если N принадлежит ряду: {1, 2, 4, 8, 16, 32, 64, 128, 256, 512, 1024, 2048…}
Рис. 10. Зависимось энтропии от количества равновероятных вариантов выбора (равнозначных альтернатив).
Напомним, что такое логарифм.
Рис. 11. Нахождение логарифма b по основанию a - это нахождение степени, в которую нужно возвести a, чтобы получить b.
Логарифм по основанию 2 называется двоичным:
log2(8)=3 => 23=8
log2(10)=3,32 => 23,32=10
Логарифм по основанию 10 –называется десятичным:
log10(100)=2 => 102=100
Основные свойства логарифма:
log(1)=0, т.к. любое число в нулевой степени дает 1;
log(ab)=b*log(a);
log(a*b)=log(a)+log(b);
log(a/b)=log(a)-log(b);
log(1/b)=0-log(b)=-log(b).
Для решения обратных задач, когда известна неопределенность (H) или полученное в результате ее снятия количество информации (I) и нужно определить какое количество равновероятных альтернатив соответствует возникновению этой неопределенности, используют обратную формулу Хартли, которая выглядит еще проще:
(3)
Например, если известно, что в результате определения того, что интересующий нас Коля Иванов живет на втором этаже, было получено 3 бита информации, то количество этажей в доме можно определить по формуле (3), как N=23=8 этажей.
Если же вопрос стоит так: “в доме 8 этажей, какое количество информации мы получили, узнав, что интересующий нас Коля Иванов живет на втором этаже?”, нужно воспользоваться формулой (2): I=log2(8)=3 бита.
3.5.Количество информации, получаемой в процессе сообщения
До сих пор мы приводили формулы для расчета энтропии (неопределенности) H, указывая, что H в них можно заменять на I, потому что количество информации, получаемое при полном снятии неопределенности некоторой ситуации, количественно равно начальной энтропии этой ситуации.
Но неопределенность может быть снята только частично, поэтому количество информации I, получаемой из некоторого сообщения, вычисляется как уменьшение энтропии, произошедшее в результате получения данного сообщения.
(4)
Для равновероятного случая, используя для расчета энтропии формулу Хартли, получим:
(5)
Второе равенство выводится на основании свойств логарифма. Таким образом, в равновероятном случае I зависит от того, во сколько раз изменилось количество рассматриваемых вариантов выбора (рассматриваемое разнообразие).
Исходя из (5) можно вывести следующее:
Если , то - полное снятие неопределенности, количество полученной в сообщении информации равно неопределенности, которая существовала до получения сообщения.
Если , то - неопределенности не изменилась, следовательно, информации получено не было.
Если , то => , если , => . Т.е. количество полученной информации будет положительной величиной, если в результате получения сообщения количество рассматриваемых альтернатив уменьшилось, и отрицательной, если увеличилось.
Если количество рассматриваемых альтернатив в результате получения сообщения уменьшилось вдвое, т.е. , то I=log2(2)=1 бит. Другими словами, получение 1 бита информации исключает из рассмотрения половину равнозначных вариантов.
Рассмотрим в качестве примера опыт с колодой из 36 карт.
Рис. 12. Иллюстрация к опыту с колодой из 36-ти карт.
Пусть некто вынимает одну карту из колоды. Нас интересует, какую именно из 36 карт он вынул. Изначальная неопределенность, рассчитываемая по формуле (2), составляет H=log2(36)5,17 бит. Вытянувший карту сообщает нам часть информации. Используя формулу (5), определим, какое количество информации мы получаем из этих сообщений:
Вариант A. “Это карта красной масти”.
I=log2(36/18)=log2(2)=1 бит (красных карт в колоде половина, неопределенность уменьшилась в 2 раза).
Вариант B. “Это карта пиковой масти”.
I=log2(36/9)=log2(4)=2 бита (пиковые карты составляют четверть колоды, неопределенность уменьшилась в 4 раза).
Вариант С. “Это одна из старших карт: валет, дама, король или туз”.
I=log2(36)–log2(16)=5,17-4=1,17 бита (неопределенность уменьшилась больше чем в два раза, поэтому полученное количество информации больше одного бита).
Вариант D. “Это одна карта из колоды".
I=log2(36/36)=log2(1)=0 бит (неопределенность не уменьшилась - сообщение не информативно).
Вариант D. “Это дама пик".
I=log2(36/1)=log2(36)=5,17 бит (неопределенность полностью снята).