- •Информация, информационные системы и информационное взаимодействие.
- •Аспекты информации: представление, содержание, отношение к реальному миру.
- •Методы получения информации: опытный, эвристический, целенаправленный.
- •Свойства информации: достоверность, полнота, актуальность, ясность, ценность.
- •Информационные каналы с преобразованием и без преобразования информации.
- •Характеристики информационных каналов: разрядность, частота, пропускная способность.
- •Сигналы как средство передачи информации. Аналого-цифровые и цифрово-аналоговые преобразования сигналов.
- •Энтропия и информация. Определение количества информации.
- •Источники информации и комбинация источников информации.
- •Проблема кодирования, средняя длина кода и её связь с энтропией, первая теорема Шеннона.
- •Пропускная способность, каналы и вторая теорема Шеннона.
- •Позиционные системы счисления.
- •Двоичная система счисления как основа компьютерной арифметики, алгоритмы преобразования чисел
- •Логические операции.
- •Булевы переменные и булевы выражения.
- •Условные выражения и предикаты.
- •Целые числа без знака и целые числа со знаком.
- •Диапазоны значений целых чисел без знака
- •Представление логических выражений с помощью коммутационных схем.
- •Структурная схема вычислительного устройства (компьютера) Дж. Фон Неймана.
- •Современные компьютеры и их разновидности.
- •Современные микропроцессоры и их основные характеристики.
- •Оперативная память и её разновидности.
- •Внешняя память и современные устройства хранения информации.
- •Современные устройства ввода-вывода информации.
- •Мониторы и видеоадаптеры, их основные характеристики.
- •Классификация: По виду выводимой информации:
- •По типу экрана
- •Операционная система как средство обеспечения интерфейса пользователем.
- •Операционная система как средство обеспечения аппаратно-программного интерфейса.
- •Операционная система как средство обеспечения программного интерфейса.
- •Понятие распределённой вычислительной системы.
- •Компоненты аппаратно и программного обеспечения распределённых вычислительных систем.
- •Локальные и глобальные компьютерные сети, Internet, дата-центры и “Облако”.
- •Информационно-поисковые системы и их использование для поиска информации.
- •Использование компьютера как средства связи.
- •Моделирование как главная методология решения задач на компьютере.
- •Основные этапы построения моделей.
- •Нисходящее проектирование программных решений.
- •Модульное проектирование программных решений.
- •Восходящее проектирование программных решений.
- •Объектно-ориентированное проектирование программных решений.
- •Основные этапы решения задач на компьютере.
- •Понятие алгоритма и его связь с программным кодом.
- •Основные алгоритмические структуры (линейный код, ветвление, циклы) и структурная теорема.
- •Представление алгоритмов блок-схемами и псевдокодом.
- •Простейшие алгоритмы обработки (на примере).
- •Простейшие рекурсивные алгоритмы (на примере).
Сигналы как средство передачи информации. Аналого-цифровые и цифрово-аналоговые преобразования сигналов.
Компьютер может воспринимать информацию только в форме электрических сигналов, поэтому для его работы требуется преобразовывать информацию в необходимый формат.
большинство устройств, взаимодействующих с компьютером, имеют аналоговый вход/выход, а компьютер умеет обрабатывать исключительно цифровые сигналы.
Аналого-цифровое преобразование:
Для того, что бы компьютер мог выполнить обработку сигнала необходимо выполнить преобразование сигнала из аналоговой формы в цифровую.
После обработки выполняется обратное преобразование, поскольку большинство бытовых устройств управляются аналоговыми сигналами.
Для преобразования любого аналогового сигнала (звука, изображения) в цифровую форму необходимо выполнить три основные операции: дискретизацию, квантование и кодирование.
Цифро-аналоговое преобразование:
После цифровой фильтрации передискретизированные данные вводятся в цифро-аналоговый преобразователь, или ЦАП. Он преобразует свои входные данные в аналоговый выходной сигнал. Наиболее распространенным типом ЦАП'а считается преобразователь с резисторной матрицей типа R/2R. Внутри этих ЦАП'ов имеется резисторная схема лестничного типа. Каждая "ступенька" соответствует одному разряду двоичного кода.
Энтропия и информация. Определение количества информации.
Информацио́нная энтропи́я — мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения, выраженная в битах. Так же энтропию можно рассматривать как меру равномерности распределения случайной величины.
Например, в последовательности букв, составляющих какое-либо предложение на русском языке, разные буквы появляются с разной частотой, поэтому неопределённость появления для некоторых букв меньше, чем для других. Если же учесть, что некоторые сочетания букв (в этом случае говорят об энтропии n-ого порядка, см. ниже) встречаются очень редко, то неопределённость уменьшается еще сильнее.
Количество информации I и энтропия H характеризуют одну и ту же ситуацию, но с качественно противоположенных сторон. I – это количество информации, которое требуется для снятия неопределенности H. По определению Леона Бриллюэна информация есть отрицательная энтропия (негэнтропия). Когда неопределенность снята полностью, количество полученной информации I равно изначально существовавшей неопределенности H.
Первая концепция (концепция К. Шеннона), отражая количественно-информационный подход, определяет информацию как меру неопределенности (энтропию) события. Количество информации в том или ином случае зависит от вероятности его получения: чем более вероятным является сообщение, тем меньше информации содержится в нем. При таком понимании информация - это снятая неопределенность, или результат выбора из набора возможных альтернатив.
Для расчета энтропии Шеннон предложил уравнение
H = ∑Pi log2 1/Pi = -∑Pi log2 Pi,
где Н – энтропия Шеннона, Pi - вероятность некоторого события.