- •История развития информатики
- •Информатика как единство науки и технологии
- •Информатика и кибернетика, общее и отличия
- •Сообщение, канал связи, источник информации, приемник информации
- •Непрерывная и дискретная информация. Носитель, сигнал, параметр сигнала
- •Единицы количества информации, вероятностный и объемный подход
- •Формула Хартли, вывод формулы Хартли
- •Кубит. Квантовые вычисления. Квантовый компьютер
- •Системы счисления. Позиционные и непозиционные системы счисления
- •Двоичная система счисления. Значение в вычислительной технике. Преобразование чисел с разными основаниями
- •Буква. Абстрактный алфавит. Код. Кодирование и декодирование
- •Источник. Кодировщик. Сообщение. Помехи. Декодеровщик. Приемник.
- •Понятие о теоремах шенона. Первая теорема шенона. Вторая теорема шенона.
- •Алгебра логики. Таблица истинности основных логических операций (и или не ине илине)
- •Нечеткая логика
- •17. Причины вирусной опасности. Рост числа опасностей в сфере информационных
- •Поколения эвм.
- •19. Понятие архитектуры. Принципы относящиеся к понятию архитектуры.
- •20. Основные положения архитектуры Фон-Неймана.
- •21. Причины появления материнской платы. Шинная архитектура.
- •22. Шины, центральный микропроцессор, монитор, системный блок, модем, флеш-диск, аудиокарта, сетевая карта.
- •23. Работа микропроцессора с переферийными устройствами.
- •24. Приведите основные показатели современных микропроцессоров.
- •25. Технологии simd.
- •26. Характеристики гнезд центрального процессора.
- •27. Характеристики оперативной памяти.
- •28. Характеристики материнских плат.
- •29. Характеристики видеокарт.
- •30. Промышленные интерфейсы. Isa. Pci. Pci-e 3.0. Lpt. FireWire.
- •31. Интерфейс usb 1.1, usb 2.0, usb 3.0, usb wireless.
- •32. Интерфейсы ata, sata, eSata, scsi.
- •33. Оптические диски: cd, dvd, Bluy-ray.
- •34. Корпус системного блока. Блок питания. Atx. Характеристики atx.
- •35. Жесткий диск. Характеристики жестких дисков.
- •36. Технологии записи жестких дисков. Метод параллельной записи. Метод перпендикулярной записи.
- •37. Консоль. Интерфейсы подключения монитора. Типы мониторов: элт, tft, oled.
- •38. Оптические вычисления. Информационные технологии в автомобилестроении. Технологии «Умный дом», «Умный город».
- •39. Клавиатура. Мышь. Принтер (матричный, струйный, сублимационный, барабанный, лепестковый, термический). Графопостроитель.
- •40. Сканер (планшетный, ручной, листопротяжный, планетарный, барабанный, штрих- кода). Характеристики сканеров. Web-камера.
- •41. Электронная одежда. Бытовая робототехника.
- •42. История появления операционных систем. Ос xenix, unix, freebsd, dos,
- •43. В каких случаях нужны операционные системы (ос). Из каких компонентов состоят ос. Что обеспечивает ос.
- •44. Понятие ресурса. Многозадачность. Многопользовательские ос. Суть режима
- •45. Операционные системы для мобильных устройств.
- •46. Процесс. Состояния процесса. Связь между состояниями процесса. Прерывания.
- •47. Bios. Bios setup. System Boot. Драйверы устройств. Базовый модуль. Утилиты.
- •48. Технология Plug and Play. Три составляющие технологии Plug and Play.
- •49. Офисные пакеты.
- •50. База данных (бд). Характеристики бд.
- •51. Функции субд.
- •52. Файловая система. Что обеспечивает файловая система. Поддержка файловой системы ос.
- •53. .Html. Примеры.
- •54. Элементы файловой системы. Права доступа в ос Linux.
- •55. Конфигурационная информация в Linux.
- •56. Конфигурационная информация в Windows. Конфигурационные файлы. Реестр. Ветви
- •57. Консольные команды posix ос для работы с файловой системой.
- •58. Прикладное программное обеспечение.
- •59. Традиционная модель osi. Упрощенная модель osi.
- •61. Математический пакет Maxima.
- •62. Среда LabView. Назначение, возможности. Понятие виртуального прибора.
- •63. Растровая графика. Информация запоминаемая в файлах с растровой графикой.
- •64. Векторная графика. Информация запоминаемая в файлах с векторной графикой.
- •65. Фрактальная графика. Индексированные цвета в растровой графике.
- •66. Форматы графических данных.
- •67. Формирование цвета в компьютерной графике. Три закона Грассмана.
- •68. Цветовые модели компьютерной графики.
- •69. Программы для работы с компьютерной графикой.
- •70. Программное обеспечение обработки текстовых данных (редактор VI).
- •71. Граф. Вершины графа. Концевые, внутренние вершины. Ориентированный неориентированный граф. Петли. Маршрут. Дерево. Лес.
- •72. Понятие алгоритма. Понятие исполнителя алгоритма. Ски. Формальное выполнение.
- •73. Свойства алгоритма. Дискретность. Детерминированность. Результативность. Массовость.
- •74. Понятие блок-схемы. Следование. Условный переход. Цикл с постусловием. Цикл с предусловием.
- •75. Терминальные команды в Linux.
- •76. Компьютерные вирусы. Основные виды вирусов.
- •77. Методы защиты от компьютерных вирусов. Профилактика заражения. Действия в случае заражения.
- •78. Контрольные суммы. Md5. Алгоритм md5.
- •79. Архивирование. Форматы Zip, Rar, 7-Zip, lzma.
- •80. Архивирование. Форматы lz77, lz78. Принцип скользящего окна. Механизм кодирования совпадений.
- •81. Криптография.
- •82. Ssh. Клиент, сервер ssh.
- •83. Ssl. Открытый ключ pki.
- •84. Гост 28147-89. Des. Тройной des. Aes. Преимущества и недостатки.
- •85. Перспективы развития информационных технологий.
Единицы количества информации, вероятностный и объемный подход
Формула Хартли, вывод формулы Хартли
Определить понятие “количество информации” довольно сложно. В решении этой проблемы существуют два основных подхода. Исторически они возникли почти одновременно. В конце 40-х годов XX века один из основоположников кибернетики американский математик Клод Шеннон развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к “объемному” подходу.
Вероятностный подход
Рассмотрим в качестве примера опыт, связанный с бросанием правильной игральной .кости, имеющей N граней (наиболее распространенным является случай шестигранной кости: N = 6). Результаты данного опыта могут быть следующие: выпадение грани с одним из следующих знаков: 1,2,... N. Введем в рассмотрение численную величину, измеряющую неопределенность -энтропию (обозначим ее Н). Величины N и Н связаны между собой некоторой функциональной зависимостью:
H = f (N), (1.1) а сама функция f является возрастающей, неотрицательной и определенной (в рассматриваемом нами примере) для N = 1, 2,... 6.
Рассмотрим процедуру бросания кости более подробно:
1) готовимся бросить кость; исход опыта неизвестен, т.е. имеется некоторая неопределенность; обозначим ее H1;
2) кость брошена; информация об исходе данного опыта получена; обозначим количество этой информации через I;
3) обозначим неопределенность данного опыта после его осуществления через H2. За количество информации, которое получено в ходе осуществления опыта, примем разность неопределенностей “до” и “после” опыта:
I = H1 – H2 (1.2) Очевидно, что в случае, когда получен конкретный результат, имевшаяся неопределенность снята (Н2 = 0), и, таким образом, количество полученной информации совпадает с первоначальной энтропией. Иначе говоря, неопределенность, заключенная в опыте, совпадает с информацией об исходе этого опыта. Заметим, что значение Н2 могло быть и не равным нулю, например, в случае, когда в ходе опыта следующей выпала грань со значением, большим “З”. Следующим важным моментом является определение вида функции f в формуле (1.1). Если варьировать число граней N и число бросаний кости (обозначим эту величину через М), общее число исходов (векторов длины М, состоящих из знаков 1,2,.... N) будет равно N в степени М: X=NM. (1.3) Так, в случае двух бросаний кости с шестью гранями имеем: Х=62=36. Фактически каждый исход Х есть некоторая пара (X1, X2), где X1 и X2 – соответственно исходы первого и второго бросаний (общее число таких пар – X). Ситуацию с бросанием М раз кости можно рассматривать как некую сложную систему, состоящую из независимых друг от друга подсистем – “однократных бросаний кости”. Энтропия такой системы в М раз больше, чем энтропия одной системы (так называемый “принцип аддитивности энтропии”): f(6M) = M ∙ f(6) Данную формулу можно распространить и на случай любого N: F(NM) = M ∙ f(N) (1.4) Прологарифмируем левую и правую части формулы (1.3): lnX=M ∙ lnN, М=lnX/1nM. Подставляем полученное для M значение в формулу (1.4): Обозначив через К положительную константу , получим: f(X) =К ∙ lnХ, или, с учетом (1.1), H=K ∙ ln N. Обычно принимают К = 1 / ln 2. Таким образом H = log2 N. (1.5) Это – формула Хартли.
Объемный подход
В двоичной системе счисления знаки 0 и 1 будем называть битами (от английского выражения Binary digiTs – двоичные цифры). Отметим, что создатели компьютеров отдают предпочтение именно двоичной системе счисления потому, что в техническом устройстве наиболее просто реализовать два противоположных физических состояния: некоторый физический элемент, имеющий два различных состояния: намагниченность в двух противоположных направлениях; прибор, пропускающий или нет электрический ток; конденсатор, заряженный или незаряженный и т.п. В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации подсчитывается просто по количеству требуемых для такой записи двоичных символов. При этом, в частности, невозможно нецелое число битов (в отличие от вероятностного подхода). Для удобства использования введены и более крупные, чем бит, единицы количества информации. Так, двоичное слово из восьми знаков содержит один, байт информации, 1024 байта образуют килобайт (кбайт), 1024 килобайта – мегабайт (Мбайт), а 1024 мегабайта – гигабайт (Гбайт). Между вероятностным и объемным количеством информации соотношение неоднозначное. Далеко не всякий текст, записанный двоичными символами, допускает измерение объема информации в кибернетическом смысле, но заведомо допускает его в объемном. Далее, если некоторое сообщение допускает измеримость количества информации в обоих смыслах, то они не обязательно совпадают, при этом кибернетическое количество информации не может быть больше объемного.В дальнейшем практически всегда количество информации понимается в объемном смысле.
св-ва информации: запоминаемость, передаваемость, вопроизводимость, преобразуемость, стираемость
Запоминаемость — информацию можно хранить, используя некоторую физическую среду и процессы этой среды.
Передаваемость — информация может быть передана с помощью каналов связи (в том числе с помехами). Это свойство хорошо исследовано в рамках теории информации Клода
Шеннона. В данном случае имеется ввиду способность информации к передаче другой макроскопической системой и при этом сохранение тождественности самой себе.
Воспроизводимость — информация не изменяется при создании копии информации.
Если передаваемость означает, что не следует считать существенными пространственные отношения между частями системы, между которыми передается информация, то воспроизводимость характеризует неиссякаемость и неистощимость информации, т.е. что
при воспроизведении, информация остается тождественной самой себе.
Преобразуемость — информация может менять способ и форму своего существования. В общем случае количество информации в процессах преобразования меняется, но возрастать не может.
Стираемость — информация имеет такой вид преобразования, при котором ее количество уменьшается и становится равным нулю.