- •Информация, информационные системы и информационное взаимодействие.
- •Аспекты информации: представление, содержание, отношение к реальному миру.
- •Методы получения информации: опытный, эвристический, целенаправленный.
- •Свойства информации: достоверность, полнота, актуальность, ясность, ценность.
- •Информационные каналы с преобразованием и без преобразования информации.
- •Характеристики информационных каналов: разрядность, частота, пропускная способность.
- •Сигналы как средство передачи информации. Аналого-цифровые и цифрово-аналоговые преобразования сигналов.
- •Энтропия и информация. Определение количества информации.
- •Источники информации и комбинация источников информации.
- •Проблема кодирования, средняя длина кода и её связь с энтропией, первая теорема Шеннона.
- •Пропускная способность, каналы и вторая теорема Шеннона.
- •Позиционные системы счисления.
- •Двоичная система счисления как основа компьютерной арифметики, алгоритмы преобразования чисел
- •Логические операции.
- •Булевы переменные и булевы выражения.
- •Условные выражения и предикаты.
- •Целые числа без знака и целые числа со знаком.
- •Диапазоны значений целых чисел без знака
- •Представление логических выражений с помощью коммутационных схем.
- •Структурная схема вычислительного устройства (компьютера) Дж. Фон Неймана.
- •Современные компьютеры и их разновидности.
- •Современные микропроцессоры и их основные характеристики.
- •Оперативная память и её разновидности.
- •Внешняя память и современные устройства хранения информации.
- •Современные устройства ввода-вывода информации.
- •Мониторы и видеоадаптеры, их основные характеристики.
- •Классификация: По виду выводимой информации:
- •По типу экрана
- •Операционная система как средство обеспечения интерфейса пользователем.
- •Операционная система как средство обеспечения аппаратно-программного интерфейса.
- •Операционная система как средство обеспечения программного интерфейса.
- •Понятие распределённой вычислительной системы.
- •Компоненты аппаратно и программного обеспечения распределённых вычислительных систем.
- •Локальные и глобальные компьютерные сети, Internet, дата-центры и “Облако”.
- •Информационно-поисковые системы и их использование для поиска информации.
- •Использование компьютера как средства связи.
- •Моделирование как главная методология решения задач на компьютере.
- •Основные этапы построения моделей.
- •Нисходящее проектирование программных решений.
- •Модульное проектирование программных решений.
- •Восходящее проектирование программных решений.
- •Объектно-ориентированное проектирование программных решений.
- •Основные этапы решения задач на компьютере.
- •Понятие алгоритма и его связь с программным кодом.
- •Основные алгоритмические структуры (линейный код, ветвление, циклы) и структурная теорема.
- •Представление алгоритмов блок-схемами и псевдокодом.
- •Простейшие алгоритмы обработки (на примере).
- •Простейшие рекурсивные алгоритмы (на примере).
Источники информации и комбинация источников информации.
Источник информации:
источник информации – тот элемент окружающего мира (объект, процесс, явление, событие), сведения о котором являются объектом преобразования. Так, источником информации, которую в данный момент получает читатель настоящего учебного пособия, является информатика как сфера человеческой деятельности;
комбинация источников информации:
система элементов окружающего мира (объект, процесс, явление, событие), сведения о котором являются объектом преобразования. Так, источником информации, которую в данный момент получает читатель настоящего учебного пособия, является информатика как сфера человеческой деятельности;
Проблема кодирования, средняя длина кода и её связь с энтропией, первая теорема Шеннона.
Проблема кодирования:
Вся информация , которую обрабатывает компьютер, должна быть представлена двоичным кодом с помощью двух цифр — 0 и 1. Эти два символа принято называть двоичными цифрами, или битами. С помощью двух цифр 1 и 0 можно закодировать любое сообщение. Это явилось причиной того, что в компьютере обязательно должно быть организовано два важных процесса:
кодирование, которое обеспечивается устройствами ввода при преобразовании входной информации в форму, воспринимаемую компьютером, то есть в двоичный код;
декодирование, которое обеспечивается устройствами вывода при преобразовании данных из двоичного кода в форму, понятную человеку.
С точки зрения технической реализации использование двоичной системы счисления для кодирования информации оказалось намного
более простым, чем применение других способов. Действительно, удобно кодировать информацию в виде последовательности нулей и единиц, если представить эти значения как два возможных устойчивых состояния электронного элемента:
0 — отсутствие электрического сигнала или сигнал имеет низкий уровень;
1 — наличие сигнала или сигнал имеет высокий уровень.
Эти состояния легко различать. Недостаток двоичного кодирования — длинные коды. Но в технике легче иметь дело с большим числом простых элементов, чем с небольшим количеством сложных.
Средняя длина кода и ее связь с энтропией:
Научной предпосылкой возможности сжатия данных выступает известная из теории информации теорема кодирования для канала без помех, опубликованная в конце 40-х годов в статье Клода Шеннона "Математическая теория связи". Теорема утверждает, что в канале связи без помех можно так преобразовать последовательность символов источника (в нашем случае DTE) в последовательность символов кода, что средняя длина символов кода может быть сколь угодно близка к энтропии источника сообщений Н(Х). Энтропия источника Н(Х) выступает количественной мерой разнообразия выдаваемых источником сообщений и является его основной характеристикой. Чем выше разнообразие алфавита Х сообщений и порядка их появления, тем больше энтропия Н(Х) и тем сложнее эту последовательность сообщений сжать.
Первая теорема Шеннона:
Теоремы Шеннона затрагивают проблему эффективного кодирования Первая теорема декларирует возможность создания системы эффективного кодирования дискретных сообщений, у которой среднее число двоичных символов на один символ сообщения асимптотически стремится к энтропии источника сообщений (в отсутствии помех).