- •6. Язык как способ представления информации. Естественные языки. Формальные языки.
- •8. Количество информации. Содержательный подход. Алфавитный подход.
- •9. Кодирование информации.
- •10. Единицы измерения информации.
- •11. Системы счисления. Непозиционные системы счисления. Позиционные системы счисления.
- •12. Системы счисления, используемые в компьютере. Двоичная система счисления.
- •Достоинства двоичной системы счисления
- •Недостатки двоичной системы счисления
- •Перевод чисел из различных систем счисления в десятичную
- •Перевод чисел из десятичной системы счисления в другие
- •Примеры перевода дробных чисел из десятичной системы в другие.
- •15. Двоичная арифметика. Сложение. Вычитание меньшего числа из большего в двоич-ной системе. Вычитание большего числа из меньшего в двоичной системе. Умножение. Деление.
- •16. Двоичное кодирование различных форм представления информации. Двоичное ко-дирование текстовой информации. Двоичное кодирование графической информации.
- •17. Основные понятия и операции формальной логики. Таблица истинности логических выражений. Основные логические операции.
- •Алгоритм построения таблицы истинности сложного высказывания
- •20. Основные логические элементы компьютера. Логические вентили и, или и не. Полусумматор, сумматор, каскад сумматоров. Триггер.
- •21. Основные устройства компьютера. Процессор. Оперативная память. Долговременная память. Устройства ввода информации. Устройства вывода информации. Основные компоненты архитектуры эвм:
- •Внешняя память компьютера.
- •Различные виды носителей информации, их характеристики (информационная емкость, быстродействие и др.)
- •22. Основные функции процессора. Характеристики процессора.
- •23. Функциональная организация компьютера (магистрально-модульный принцип построения компьютера)
- •24. Программное управление работой компьютера и программное обеспечение.
- •25. Операционные системы.
- •26. Языки программирования. Языки программирования низкого и высокого уровней.
- •Языки программирования низкого уровня
- •Преимущества
- •Недостатки
- •27. Транслятор. Различие между компилятором и интерпретатором.
- •28. Характеристики языков высокого уровня.
- •30. Информационная технология решения задачи с помощью компьютера: основная технологическая цепочка.
- •31. Инсталляция программ.
- •32. Файлы и каталоги. Файлы и файловые системы. Правила именования файлов. Каталоги. Операции над файлами и каталогами.
- •33. Основные носители информации и их характеристики. Магнитные носители. Лазерные диски. Ёмкость и скорость обмена информацией.
- •34. Работа с носителями информации. Физическая структура диска. Логическая струк-тура. Форматирование. Фрагментация.
- •35. Ввод и вывод данных. Устройства ввода информации. Устройства вывода информации.
8. Количество информации. Содержательный подход. Алфавитный подход.
При всем многообразии подходов к определению понятия информации, с позиций измерения информации нас интересуют два из них: определение К. Шеннона, применяемое в математической теории информации, и определение А. Н. Колмогорова, применяемое в отраслях информатики, связанных с использованием компьютеров (computer science). В содержательном подходе возможна качественная оценка информации: новая, срочная, важная и т.д. Согласно Шеннону, информативность сообщения характеризуется содержащейся в нем полезной информацией - той частью сообщения, которая снимает полностью или уменьшает неопределенность какой-либо ситуации. Неопределенность некоторого события - это количество возможных исходов данного события. Так, например, неопределенность погоды на завтра обычно заключается в диапазоне температуры воздуха и возможности выпадения осадков. Содержательный подход часто называют субъективным, так как разные люди (субъекты) информацию об одном и том же предмете оценивают по-разному. Но если число исходов не зависит от суждений людей (случай бросания кубика или монеты), то информация о наступлении одного из возможных исходов является объективной. Алфавитный подход основан на том, что всякое сообщение можно закодировать с помощью конечной последовательности символов некоторого алфавита. С позиций computer science носителями информации являются любые последовательности символов, которые хранятся, передаются и обрабатываются с помощью компьютера. Согласно Колмогорову, информативность последовательности символов не зависит от содержания сообщения, а определяется минимально необходимым количеством символов для ее кодирования. Алфавитный подход является объективным, т.е. он не зависит от субъекта, воспринимающего сообщение. Смысл сообщения учитывается на этапе выбора алфавита кодирования либо не учитывается вообще. На первый взгляд определения Шеннона и Колмогорова кажутся разными, тем не менее, они хорошо согласуются при выборе единиц измерения.
9. Кодирование информации.
Информация никогда не появляется в «чистом виде», она всегда как-то представлена, в каком-либо формализованном (закодированном) виде. Одна и та же информация может быть представлена различными способами. От того, как представлена информация, зависит очень многое, от возможной интерпретации до возможности ее технической обработки. Так что в практических задачах важно выбрать тот способ представления информации, который наиболее удобен и адекватен решаемой задаче.
В настоящее время достаточно распространен процесс кодирования, т. е. преобразование информации из одной знаковой формы в другую, удобную для ее обработки, хранения или передачи. Используемый для кодирования конечный набор знаков называют алфавитом. Кодирование осуществляется по принятым правилам. Правило кодирования называется кодом (от французского code — кодекс, свод законов). Длина кода — количество знаков алфавита, используемое для кодирования.
Многие годы человечество работало с информацией, прежде чем был изобретен компьютер. С появлением компьютера стало возможным автоматизировать процессы обработки, передачи и хранения информации. При кодировании информации для технических устройств удобно использовать алфавиты, состоящие всего из двух знаков. Такие алфавиты называют двоичными. Чем меньше знаков в алфавите, тем проще должна быть устроена «машина» для распознавания (дешифровки) информационного сообщения. Однако чем меньше знаков в алфавите, тем большее их количество требуется для кодирования, следовательно, тем больше длина кода. Легко рассчитать количество М элементарных сообщений, которые можно закодировать, используя код постоянной длины п и алфавит из R знаков: М = Rn. Длину кода рассчитывают по формуле n = [logRM + 1]. Если мы используем двоичный алфавит, то М = 2n