- •Информатика и ее основные задачи.
- •Понятие информации. Свойства информации.
- •Синтаксическая и семантическая меры измерения информации. Законы Хартли, Шеннона.
- •Булева алгебра основа работы компьютера. Логическое умножение. (конъюнкцию), сложение (дизъюнкцию) и отрицание.
- •Кодирование информации: кодирование текста, звука, изображения.
- •Единицы измерения информации.
- •Принципы построения эвм.
- •Классификация вычислительных машин.
- •Структурная схема персонального компьютера (основные блоки и их назначение).
- •10. Микропроцессоры и интерфейсная система компьютера.
- •11. Запоминающие устройства пк.
- •12. Устройства ввода данных.
- •13. Программное обеспечение компьютера его классификация
- •14. Назначение и организация системного программного обеспечения.
- •15. Операционные системы. Операционные системы семейства ms Windows.
- •16. Файловая система (основные понятия).
- •17. Прикладные программы офисного назначения.
- •18. Текстовый редактор . Набор, редактирование и оформление текстовых документов ms Word.
- •19. Табличные процессоры. Копирование и перемещение формул. Относительная и абсолютная ссылки в ms Excel.
- •20. Сети, сетевые протоколы. Классификация вычислительных сетей.
- •21. Способы организации взаимодействия компьютеров в сетях.
- •22. Топологии компьютер¬ных сетей.
- •23. Виды сетевого коммуникационного оборудования.
- •24. Интернет (история развития, структура Интернет).
- •25. Передача информации (адресация) в Интернет.
- •26. Основные возможности сети Интернет.
Информатика и ее основные задачи.
Информатика – это наука, связанная с накоплением, обработкой и передачей информации с помощью ЭВМ и компьютерной сети интернет.
Информация – это сведения, которые человек получает из окружающего мира.
3 взаимосвязанных направления информатики:
Теоретическая информатика использует математические методы для общего изучения процессов обработки информации
Прикладная информатика связана с изучением закономерностей в информационных процессах (накопление, переработка, сохранение)
Технические средства – изучает общие принципы построения вычислительных систем.
Основные задачи информатики:
- изучение закономерностей, в соответствии с которыми происходят создание, преобразование, хранение, передача и использование информации всех видов, в том числе с применением современных технических средств.
- изучение и обеспечение «дружественного» интерфейса между человеком и аппаратно-программными средствами обработки информации
- систематизация приемов и методов работы с аппаратными и программными средствами вычислительной техники.
- создавать, передавать, принимать, хранить, обрабатывать информацию.
Понятие информации. Свойства информации.
Информация - это сведения, которые человек получает из окружающего мира; отражение мира с помощью сведений.
Основоположник теории информации Клод Шеннон определил информацию, как снятую неопределенность.
Получение информации – условие для снятия неопределенности неопределенности ситуации.
Снятие неопределенности:
- уменьшает количество рассматриваемых вариантов;
- позволяет сделать выбор одного из числа возможных;
- дает возможность принимать обоснованные решения и действовать.
В этом состоит управляющая роль информации.
Свойства информации:
- достаточность – определяет минимальный, но достаточный набор данных для принятия решений или для создания новых данных, на основе имеющихся.
- актуальность – это степень соответствия информации текущему моменту времени.
- доступность – это мера возможности получить ту или иную информацию.
- достоверность – это соответствие принятого сообщения переданному.
- адекватность – это степень соответствия создаваемого с помощью полученной информации образа реальному объекту, процессу, явлению.
- понятность, ценность.
Синтаксическая и семантическая меры измерения информации. Законы Хартли, Шеннона.
Синтаксическая мера оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.
На синтаксическом уровне учитывается тип носителя, способ представления информации, скорость передачи и обработки, размеры кадров представленной информации. Объем данных измеряется количеством символов
Семантическая мера (измерение смыслового содержания информации)
Тезаурусная мера связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение. Используется понятие тезаурус пользователя.
Р.Хартли и К.Шеннон предположили, что информацию, содержащуюся в сообщении можно рассматривать с точки зрения ее новизны или иначе, уменьшения неопределенности знаний об объекте.
Для вычисления количества информации как меры неопределенности Хартли предложил логарифм с основанием 2: Н=log2N, где Н – количество информации, N – число возможных состояний объекта. Формулы Хартли применяют, когда выбор любого элемента из множества, содержащего N элементов, равнозначен.
В 1948 ученый Шеннон предложил формулу определения количества информации, учитывающей возможную вероятность сообщений: H=P1log2(1/P1)+P2log2(1/P2)+….+PNlog2(1/PN), где Н – количество информации, N – количество возможных событий, Pi – вероятность того, что именно i-е сообщение выделено в наборе из Nсообщений.