- •Информатика
- •Введение
- •1. Общие сведения об информатике
- •1.1. Информатика как наука
- •1.2 Определения информации
- •1.3. Виды информации
- •1.4. Структура информации
- •1.5. Требования, предъявляемые к социальной информации
- •Контрольные вопросы и задания:
- •2. История развития вычислительной техники
- •2.1. Ручной период вычислений или период абака
- •2.2. Механический период
- •2.3. Электромеханический период
- •2.4. Электронный период
- •Контрольные вопросы и задания
- •3. Поколения эвм
- •Контрольные вопросы и задания:
- •4. Сферы использования эвм
- •Контрольные вопросы и задания
- •5. Принципы построения эвм. Структура эвм, назначение основных блоков
- •5.1. Структура машины фон-неймановского типа
- •5.2. Назначение основных блоков эвм
- •5.2.1 Процессор
- •5.2.1 Устройства ввода-вывода
- •Контрольные вопросы и задания:
- •6. Персональные компьютеры
- •6.1. Современный настольный персональный компьютер
- •Контрольные вопросы и задания:
- •7. Двоичная система счисления
- •Контрольные вопросы и задания:
- •8. Память, ее характеристики
- •8.1. Определения. Единицы емкости памяти
- •8.2. Принципы устройства памяти
- •8.3. Виды памяти.
- •8.4. Внешние запоминающие устройства
- •Контрольные вопросы и задания:
- •9. Языки программирования современных эвм. Этапы разработки программ
- •9.1. Понятие программы
- •9.2. Машинный язык и языки программирования высокого уровня
- •9.3. Компиляторы и интерпретаторы языков программирования
- •9.4. Лингвистическое обеспечение современных эвм.
- •9.5. Этапы разработки программ для эвм
- •Контрольные вопросы и задания:
- •10. Программное обеспечение современных эвм
- •10.1. Роль программного обеспечения
- •10.2. Понятие об операционной системе
- •10.3. Основные задачи, решаемые ос пэвм
- •10.4. Современные операционные системы
- •10.5. Понятие интерфейса ос
- •10.6. Классификация операционных систем. Современные операционные системы
- •10.7. Оболочки операционных систем
- •Наиболее распространенные оболочки
- •10.8. Прикладное программное обеспечение
- •10.8.1.Текстовые редакторы
- •10.8.2. Табличные процессоры
- •10.8.3. Базы данных и субд
- •Контрольные вопросы и задания:
- •11. Алгоритмы
- •11.1. Понятие алгоритма
- •11.2. Свойства и состав алгоритмов
- •11.3. Способы записи алгоритмов. Блок-схемы
- •11.4. Базовые структуры алгоритмов: следование, ветвление, цикл
- •Контрольные вопросы и задания:
- •12. Информационные системы. Основные понятия и классификация
- •12.1. Классификация информационных систем
- •12.1.1. Классификация по масштабу
- •12.1.2. .Классификация по целям.
- •12.1.3. Классификация по способу организации
- •12.2. Архитектуры информационных систем
- •Контрольные вопросы и задания:
- •13. Понятие программного продукта. Качество и жизненный цикл программного продукта
- •13.1. Программный продукт. Особенности разработки программного обеспечения
- •Характеристики качества программного обеспечения
- •13.2. Качество программных продуктов
- •13.3. Показатели эффективности разработки программного обеспечения
- •13.4. Жизненный цикл программного обеспечения информационных систем
- •13.4.1.Основные этапы жизненного цикла по
- •13.4.2. Структура жизненного цикла по
- •13.4.3. Модели жизненного цикла по
- •Контрольные вопросы и задания:
- •14. Методология и технология разработки программного обеспечения
- •14.1. Методологии и инструменты проектирования
- •14.2. Методы и средства структурного анализа и проектирования
- •14.3. Диаграммы потоков данных
- •14.3.1. Основные символы
- •Основные элементы dfd диаграммы
- •14.3.2. Контекстная диаграмма и детализация процессов
- •14.3.3.Спецификация процесса (описание операций)
- •14.3.4. Диаграммы сущность связь
- •14.4. Методология rad
- •Контрольные вопросы и задания:
- •15. Тестирование и отладка программ
- •15.1.Понятие тестирования и отладки программ
- •15.2. Классификация ошибок, способы их выявления и устранения
- •Контрольные вопросы и задания:
- •16. Передача информации. Компьютерные сети основные понятия
- •16.1. Формы передачи информации на большие расстояния
- •16.2. Передача информации между компьютерами
- •16.3. Компьютерные сети
- •16.4. Классификация сетей
- •16.5. Локальные сети. Общие понятия
- •16.6. Глобальная сеть Internet. Общие понятия
- •Контрольные вопросы и задания:
- •17. Основы защиты информации
- •17.1. Способы несанкционированного доступа к компьютерной информации
- •17.2. Компьютерные вирусы и защита от них
- •17.2.1. Способы проявления компьютерных вирусов
- •17.2.2. Защита от поражения компьютерными вирусами
- •17.3. Нормативно правовая база защиты информации
- •Контрольные вопросы и задания:
- •18. Современная вычислительная техника (аналоговая и дискретная)
- •18.1. Аналоговая вычислительная техника
- •18.2. Основные характеристики авм
- •18.3. Гибридная вычислительная техника
- •18.4. Сравнительные характеристики аналоговой и дискретной техники
- •Контрольные вопросы и задания:
- •Библиография
- •Оглавление
1.2 Определения информации
Термин «информация» происходит от латинского informatio, что означает изложение, разъяснение. В обыденной жизни под этим словом понимают сведения, передаваемые людьми устным, письменным или другим образом. Большинство научных дисциплин использует этот термин, хотя каждая из них вкладывает в него свое содержание.
Первое понятие информации дали журналисты и филологи в 20-30-е годы XX столетия как новости, сообщения, своеобразного газетного жанра, с помощью которого человек получает различного рода сведения, Более строгая трактовка термина «информация» связана с возникновением двух новых дисциплин - математической (статистической) теории информации и кибернетики.
В математической теории информации американского инженера и математика Клода Шеннона (1948), первоначально разрабатывавшейся применительно к случайным процессам и явлениям, для которых характерна неопределенность исхода (да?, нет?), под информацией понимались не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую до их получения неопределенность. Итак, по теории Шеннона, информация - это снятая неопределенность.
Неопределенность существует тогда, когда может произойти одно из нескольких событий, т. е. система может перейти в одно из нескольких состояний, При этом количество информации, получаемой в результате снятия неопределенности, вычисляется по формуле, называемой формулой Шеннона:
,
где I- количество информации; p - вероятность события; m - число возможных состояний системы.
В частном случае для равновероятных исходов, когда p1=p2=...=pi степень неопределенности, снимаемой в результате получения информации, измеряется логарифмом числа состояний системы и называется энтропией: H = log2 m. Для систем с двумя равновероятностными возможностями («да», «нет», или «плюс», «минус», или «0», «1») H = log22 = 1. Эта величина принята за единицу измерения и названа битом.
Как правило, состояние системы характеризуется не двумя, а большим числом возможностей выбора, Например, русская письменность использует 32 буквы алфавита; выбор идет из 32 двух возможностей, т.е. m = 32, Если допустить, что появление каждой буквы равновероятно, то каждая из них несет
Y = log232 = log 25 = 5 бит информации.
Равные по объему сообщения могут содержать разное количество информации. Чем больше разнообразие знаков, из которых состоит сообщение, тем больше в нем информации.
Таким образом, теория Шеннона дала возможность количественного определения информации в сообщении. Однако она полностью игнорирует содержание передаваемой информации, оставляет в стороне смысл сообщения. Было сделано несколько попыток найти меру содержательности информации для ее получателя. Так, советский математик Ю.Шрейдер предложил оценивать информацию по увеличению объема знаний у человека под воздействием информационного сообщения. Академик А. А. Харкевич предложил измерять содержательность информации по увеличению вероятности достижения цели после получения информации человеком или машиной. Однако и этот подход требует дальнейшей разработки.
В настоящее время в различных источниках, даются различные определения информации, зачастую противоречивые, поэтому, для частичного преодоления этих трудностей, воспользуемся определением, предлагаемым В. Г. Афанасьев, который вводит близкое информации понятие информационных данных: «Данные − это всякие сведения, сообщения, знания. Они могу храниться, перерабатываться, передаваться, но характер информации они приобретают лишь тогда, когда получают содержание и форму, пригодную для управления, и используются в управлении, причем, речь идет как об управлении человека самим собой, так и управлением технико-человеческими и социальными системами различных уровней». Собственно говоря, эта точка зрения прочно утвердилась в концепциях программирования и автоматической обработки информации на ЭВМ, в экономической семиотике, где «данные» и «информация» рассматриваются как близкие, взаимосвязанные, но различные понятия».