- •Оглавление
- •Тема 1. Теория информации. 3
- •Тема 2. Аппаратное обеспечение. 7
- •Тема 3: Программное обеспечение эвм 20
- •Тема 1. Теория информации.
- •Информатика.
- •Понятие информации. Ее свойства, формы, виды и методы получения.
- •Кодирование информации.
- •Измерение информации – сравнение с эталоном.
- •Мощность алфавита
- •Вероятностный подход.
- •Информация и Энтропия.
- •Единицы измерения
- •Магистрально - модульный принцип устройства компьютера
- •Системный блок
- •Центральный процессор
- •2.5.5. Сопроцессор.
- •2.5.6. Организация памяти компьютера
- •2.6.1. Оперативное запоминающие устройство.
- •Кэш – память
- •Пзу (rom - read only memory – только для чтения.)
- •Долговременные запоминающие устройства (дзу)
- •Лирическое отступление
- •Устройство ввода
- •2.7.1. Мышь – механический монипулятор, преобразующий механические движения в движения курсора на экране.
- •Дигитайзер – графический планшет
- •Плоттер
- •Операционные системы
- •Основные семейства ос
- •3.3.3. Классификация ос
- •Структура и функции ос
- •Файловая система
- •Драйверная система
- •3.6.2 . Алгоритм Хаффмана
- •3.6.3. Алгоритм Лемпеля-Зива
- •4.3 . Задачи обработки текстовой информации.
- •Тема 6. Системы управления базами данных.
- •Персональные субд
- •7.3. Представление чисел в различных сс
- •7.3.1. Перевод чисел из q-ричной в p-ричую.
- •7.3.1. Перевод чисел между сс 2-8-16
- •8.2. Особенности интерфейса MathCad
- •8.3. Функции в MathCad
- •8.7.3. Построение графика функции в полярных координатах.
- •8.11.2. Кусочно-линейная аппроксимация.
- •8.11.3. Сплайн интерполяция.
- •8.11.4. Функции предсказания.
- •Тема 9. Компьютерная графика.
- •9.4. Векторная графика
- •9.4.1. Объекты векторной графики и их характеристики.
- •9.4.2. Способы представления обеъектов.
- •9.5 Фрактальная графика
- •9.6 Трехмерная графика
- •9.7 Цвет. Цветовые схемы.
- •Тема 10. Вычислительные сети
Кодирование информации.
Кодирование информации – набор символов – алфавит (определенный набор символов) – двоичный набор – двоичное кодирование.
«+» |
«-» |
|
|
Алфавит |
Набор символов |
|
Знаки препинания |
|
Знаки действий |
|
Мимика, жесты |
|
Знаки повышения и понижения тона |
|
Примитивы |
|
Дорожные знаки, разметка |
|
Масть |
Измерение информации – сравнение с эталоном.
Т.к. эталона не существует, значит, по правилам измерить нельзя.
Измерение:
Качественно – сравнение свойств.
Количественно – алфавитный – определенное количество информации с помощью определенного количество символов с учетом веса каждого символа.
Мощность алфавита
N – Мощность алфавита (кол-во информации)
i – Вес символа
N=2i Формула Хартли
Один двоичный разряд, используемый для кодирования = 1 бит
I=k*i
k – Количество символов
i – Вес символа
I – количество информации
Задача: ИНФОРМАТИКА 11*6=66 бит
2i=9, i=4, 4*11=44 бита
Русские буквы – 66; знаки – 15; латинский алфавит – 52; цифры – 10; специальные символы – 10; пробел; знаки действий – 11. Итого: 165.
165=2i; i=8; 8*11=88 бит.
Вероятностный подход.
Определяет количество информации через неопределенность знаний с учетом вероятности событий.
Метод двоичного поиска: сообщение, уменьшающее неопределенность в 2 раза = 1 бит информации.
N – Количество равновероятных событий
i – Количество информации, что произошло событие
N=2i
Не равновероятные события:
А – положительные события
М – отрицательные события
Р – вероятность событий
Р=А/М
Формула Шеннона:
i – Количество информации о том, что произошло событие.
2i = 1/Р
Задача: ученик получил 100 оценок: «5»-60, «4»-25, «3»-10, «2»-5. Получить количество информации о получении каждой оценки.
Р5=0,6; Р4=0,25; Р3=0,1; Р2=0,05
2i =0,6 = 1/0,6=10/6=1 2/3; i=1;
2i =100/25=4; i=2:
2i =10; i=4
2i =20; i=5
Чем меньше вероятность, тем больше информации содержится в нем.
Информация и Энтропия.
Энтропия – понятие для определения меры необратимого рассеяния энергии (термодинамика)
Энтропия – мера вероятности макроскопически. (статическая физика).
Чем больше энтропия, тем больше вероятность события.
Все процессы ведут к повышению энтропии.
Термодинамическая Энтропия – функция состояния термодинамических систем.
Математическая энтропия – измерения размеров наборов.
В теории информации мера неопределенности количества опыта, имеющая разные подходы
Min = 0, т.е. определенна.
Информационная энтропия – мера хаотичности.
I=log2 (1/p(i)) – средняя энтропия сообщения.
Это количественно обосновал Л.Н. Бриллюен: Особое внимание уделяет теории информации. Изучал вопросы общности и взаимосвязи понятия энтропии в термодинамике и теории информации. Показал, что получение информации о состоянии физической системы эквивалентно соответствующему уменьшению её энтропии и, в согласии со вторым началом термодинамики, неизбежно сопровождается компенсирующим возрастанием энтропии какой-либо иной системы.
Н+I=1, Н – энтропия, I – информация.
I = Н(до) – Н(после) «уменьшение энтропии»