- •1. Основные этапы развития информационных технологий.
- •2. Роль Беббиджа в развитии вычислительной техники.
- •3. Понятие информации. Информация и сообщения. Информационные системы.
- •4. Свойства информации. Действия над сообщениями. Носители сообщений.
- •5. Непрерывные и дискретные сигналы и сообщения. Преобразования сообщений.
- •6. Развертка и квантование. Теорема Котельникова.
- •7. Случайные события. Действия над событиями. Измерение вероятностей событий.
- •8. Понятие и свойства энтропии. Расчет энтропии для зависимых событий.
- •9. Энтропия и информация. Формулы Хартли и Шеннона.
- •10. Информация и алфавит. Относительная избыточность сообщений.
- •11. Кодирование сообщений. Условие неисчезновения информации при кодировании.
- •12. Средняя длина кодовой цепочки. Первая теорема Шеннона.
- •13. Характеристики способов построения двоичных кодов. Примеры кодов.
- •14. Кодирование текстовой информации. Текстовые форматы.
- •15. Неравномерное кодирование. Коды с разделителями.
- •20. Двоичная система счисления. Действия в двоичной системе.
- •21. Шестнадцатеричная система счисления. Действия в шестнадцатеричной системе.
- •22. Переходы между системами счисления.
- •23. Кодирование числовой информации. Формат с фиксированной точкой. Беззнаковое представление.
- •24. Кодирование числовой информации. Формат с фиксированной точкой. Знаковое представление.
- •25. Кодирование числовой информации. Нормализованные числа. Формат с плавающей точкой.
- •*26. Нормализация и денормализация. Диапазон и точность представления в формате с плавающей точкой.
- •*28. Независимость кода и его интерпретации.
- •29. Разновидности компьютерной графики.
- •Кодирование черно-белых изображений
- •Кодирование растровых цветных изображений.
- •32. Графические растровые форматы.
- •33. Обор разновидностей компьютерной графики.
- •34. Кодирование звуковой и видео информации. Мультимедийные форматы.
- •35. Передача информации. Линии и каналы связи и их характеристики.
- •36. Надёжность передачи и хранения информации. Вторая теорема Шеннона.
- •37. Кодирование с обнаружением и исправлением ошибок.
- •38. Коды Хемминга.
- •39. Способы передачи информации по линиям связи.
- •40. Передача информации по телефонным линиям связи. Модемы.
- •41. Понятие модели. Роль моделирования в науке.
- •41. Классификация моделей.
- •43. Системы. Методы изучения систем.
- •44. Классификация систем.
- •45. Различные аспекты понятия алгоритм. Фундаментальный аспект
- •46. Логические теории алгоритмов. Тезис Черча.
- •47. Машина Поста.
- •48. Интуитивное понятие алгоритма. Роль алгоритмов в обществе и в информатике.
- •49. Основные свойства алгоритмов.
- •50. Основные типы алгоритмов.
- •51. Способы задания алгоритмов. Алгоритмические языки.
- •52. Понятие переменной. Имя, тип и значение переменной.
- •53. Присваивание.
- •54. Основные управляющие конструкции. Следование. Задача обмена значениями.
- •55. Общий порядок построения алгоритмов.
- •56. Решение системы двух алгебраических уравнений с двумя неизвестными.
- •*61. Пример алгоритма работы с рекуррентными последовательностями.
- •62. Алгоритмы накопления сумм и произведений.
- •62. Алгоритмы определения экстремального элемента массива.
- •63. Задача поиска. Алгоритмы линейного поиска.
- •64. Бинарный поиск.
- •66. Построение кратных циклов.
- •67. Задача сортировки. Сортировка прямым выбором.
- •68. Понятие верификации алгоритмов. Инварианты циклов.
- •69. Сложность алгоритмов. Классы сложности р и ехр.
- •*70. Примеры оценки сложности алгоритмов.
- •71. Понятие подпрограммы.
- •72. Итерация и рекурсия.
- •73. Основные статические структуры данных.
- •74. Основные динамические структуры данных.
6. Развертка и квантование. Теорема Котельникова.
Переход от непрерывного сигнала к дискретному называется дискретизацией сигнала. Дискретизация сигнала осуществляется с помощью развертки по времени и квантования сигнала по уровню.
Развертка сигнала по времени
= = = = =
Квантование сигнала по уровню
= ; = ; =
Квантованный по уровню и развернутый по времени- дискретный сигнал
Теорема отсчетов В.А. Котельникова (1933 год).
Непрерывный сигнал можно полностью отобразить и точно воссоздать (восстановить) по последовательности измерений его значений или отсчётов величины этого сигнала через одинаковые интервалы времени, меньшие или равные половине периода максимальной частоты, имеющейся в сигнале.
7. Случайные события. Действия над событиями. Измерение вероятностей событий.
События, исход которых определяется однозначными причинно-следственными связями, называются детерминированными. Детерминированные события воспроизводятся одинаково при любом количестве повторений опыта. События, исход которых существенно зависит от множества неизвестных или трудно учитываемых факторов, называются случайными. Случайные события воспроизводятся различным образом при различных повторениях опыта.
Случайным событием называется опыт, который можно повторять любое количество раз, и каждый раз исход опыта может отличаться от предыдущего ¾ имеется неопределенность в исходе единичного опыта, при возрастании количества опытов наблюдается стабилизация их результатов
Множество всех возможных исходов опыта называется пространством элементарных исходов. Элементарные исходы, при осуществлении которых происходит событие называются благоприятствующими этому событию. Элементарные исходы, при осуществлении которых событие не происходит называются неблагоприятствующими.
Событие Z считается невероятным (невозможным), если его наступление не происходит ни при каких обстоятельствах. Для такого события нет благоприятных исходов. Событие D считается достоверным, если оно наступает всегда, при любых выполнениях опыта. Достоверному событию благоприятствуют любые исходы.
Два события считаются совместными, если они могут произойти одновременно. Два события называются несовместными, если они не могут произойти одновременно ни при каких обстоятельствах.
Два события считаются зависимыми, если появление одного из них влияет на появление другого. Два события называются независимыми, если между ними отсутствует причинно-следственная связь и появление одного из них не влияет на появление другого.
Суммой двух событий A и В считается событие C=A \/ B, состоящее в том, что произошло либо событие A, либо событие B, либо и то и другое. Произведением двух событий A и B считается событие C=A /\ B, состоящее в том, что произошли оба события.
Вероятность p(A) случайного события A является численной мерой возможности осуществления этого события в опыте. Вероятность невозможного события Z равна нулю p(Z)=0, вероятность достоверного события D равна единице p(D)=1. Для любого события A: 0 p(A) 1.
Пусть пространство элементарных исходов содержит N исходов, а событию A благоприятствуют исходов, тогда:
Пусть в N опытах событие A произошло раз. Отношение /N называется частотой события, при этом:
Вероятность суммы двух несовместных событий A и B равна: p(A\/B)=p(A)+p(B)
Вероятность произведения двух независимых событий A и B равна: p(A/\B)=p(A)xp(B)
Вероятность суммы двух независимых, совместных событий A и B равна: p(A\/B)=p(A)+p(B)-p(A)xp(B)
Вероятность события B при условии, что уже произошло влияющее на него событие A называется условной вероятностью (B)
Вероятность произведения двух зависимых событий A и B равна: p(A/\B)=p(A)x (B)
Вероятность суммы двух зависимых, совместных событий A и B равна: p(A\/B)=p(A)+p(B)-p(A)x (B)