- •5) Системы счисления информации. Правила перевода чисел из одной системы счисления в другую. Понятия бита и байта.Системы счисления
- •7. Представление информации в эвм. Принципы фон-Неймана. Классы современных эвм. Основные узлы персонального компьютера.
- •8. Архитектура эвм. Принципы фон-Неймана. Основной цикл работы эвм.
- •9)Устройство эвм. Структура персонального компьютера. Состав микропроцессора.
- •10.Микропроцессор. Виды микропроцессоров. Состав. Основные функции.
- •11 Материнская плата, устройства, находящиеся на ней. Системная шина. Типы современных процессоров. Виды памяти.
- •12 Основные узлы компьютеров. Видеоподсистемы. Накопители. Классификация накопителей.
- •14 Функциональные характеристики персональных компьютеров.
- •15 Периферийные технические средства.
- •16 Программное обеспечение и его классификация. Системы программирования.
- •17.Общие сведенья об операционных системах. Задачи, выполняемые ос. Операционная система Windows.
- •18 Файловая система. Работа с файлами и ппками. Утилиты операционной системы.
- •19 Файловые оболочки типа norton commander
- •20 Программы архивации.
- •21 Windows. История развития.
- •23 Понятие компьютерной графики. Paint.
- •24 Текстовый редакторWord.
- •29 Субд FoxPro: Индексирование. Установка связей. Установка фильтра.
- •30. Обработка числовых данных в электронных таблицах. Табличные процессоры: основные понятия, функциональные возможности, технология работы в электронной таблице.
- •31. Табличные процессоры. Электронная таблица excel. Понятие формулы и функции. Построение графиков.
- •32. Процесс передачи данных. Основные понятия. Кодировка. Понятия корректирующих кодов.
- •33.Локальные и глобальные сети
- •34.Искусственный интеллект. Основные понятия. История развития. Данные и знания.
- •35.Искусственный интеллект. Основные понятия. Направления развития. Данные и знания.
- •36. Искусственный интеллект. Основные понятия. Данные и знания. Модели представления знаний.
- •37. Экспертные системы. Структура эс. Классификация эс.
- •38.Основы защиты информации
1)
Информатика, как наука. Понятие кибернетики. Вопросы, изучаемые информатикой. Понятие информации. Уровни обработки и анализа информации. Способы хранения и передачи информации. Информационные технологии. Свойства информации.
Информатика.
Область человеческой деятельности, связанная с процессами преобразования с помощью вычислительной техники.
Техническая наука, систематизирующая приемы создания, хранения, воспроизведения, обработки и передачи данных с помощью средств вычислительной техники, а также принципы функционирование средств и управление.
Область научных знаний, Объект которой информация, ее свойства, общие закономерности преобразования, технологии обработки с использованием прогрессивных средств.
Кибернетика – наука об общих законах получения, хранения, передачи, переработки информации в сложных системах (технические, биологические, социальные и другие системы).
Информатика включат в себя бесконечность математических, инженерных, философских аспектов, через которые она становиться фундаментальной наукой, занимающейся схематично формализованным представлением информации, вопросами ее обработки, а также различными средствами, с помощью которых можно производить обработку информации.
Информатика включает:
1)технические (методы и средства надежного сбора, хранения, передачи, обработки и представления информации);
2)семантические (определяет способы описания смысла информации, изучает языки ее описания);
3)прагматические (описывает методы кодирования информации);
4)синтаксические (решение задач по формализации, автоматизация различных видов научно-технической деятельности).
Информационные технологии – совокупность технологических элементов (устройств и методов), используемых людьми для обработки информации.
Обработка информации – получение одних информационных объектов из других путем выполнения элементов алгоритма.
Процессы обработки:
1) фиксирование, классификация, расположение информации с целью её хранения и последовательного извлечения и распределения между потребителями;
2) передача и преобразование информации, связанная с формальным увеличением или уменьшением её объёма, представлением в другой форме без преобразования смысла;
3) неформальная обработка информации, связанная с анализом смысла, и приносимая пользу от её применения.
2)
Основные понятия информатики. Аспекты понятия информации. Представление информации. Представление информации. Свойство информации. Понятие количества информации.
Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах, их состояний, которые уменьшают имеющуюся о них степень неопределённости и неполноты знаний.
Представление – это способ отображения внешней формы информации.
Кодирование – процесс представления информации в определённом виде.
Информация – понятие абстрактное.
Интерпретация – переход от представления информации к абстрактной. Важно, чтобы система представления была единой и согласованной. Внешняя форма информации – это представления.
Информационные технологии – совокупность технологических элементов (устройств и методов), используемых людьми для обработки информации.
Обработка информации – получение одних информационных объектов из других путем выполнения элементов алгоритма.
Существуют разные системы представления информации:
Высказывательная. Используется в обычной жизни (истинное и ложное высказывание). Высказывания – языковое образование, в отношении которого имеет смысл говорить об истинности/ложности. Логика высказывания – это характерный пример информационной системы. Высказывания, их языковое представление, правила преобразования – пример структуры, в которой достаточно часто используется информация. Связки и, или, не.
Для представления информации в вычислительной технике используются системы счисления – системы, в которых кодируется информация по определённым правилам. В вычислительной технике удобно представлять информацию 2 цифрами (2 состояния) => используется двоичная система счисления. Количество информации можно посчитать (сигналы). Бит – это кусочек, элемент, частица.
Свойства информации.
Достоверность информации (истинная, ложная, ложная+истинная).
Полнота. Если информация содержит все необходимые данные и их достаточно для понимания и решения, то полна.
Ценность. Зависит от того, какие задачи может решить.
Ясность. Информация должна быть выражена в таком виде, который понятен получателю.
3)
Понятие информации. Измерение информации. Количество и свойства информации. Системы представления информации. Единицы измерения информации.
Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах, их состояний, которые не уменьшают имеющуюся о них степень неопределённости и неполноты знаний.
Свойства информации.
Достоверность информации (истинная, ложная, ложная+истинная).
Полнота. Если информация содержит все необходимые данные и их достаточно для понимания и решения, то полна.
Ценность. Зависит от того, какие задачи может решить.
Ясность. Информация должна быть выражена в таком виде, который понятен получателю.
Измерение:
Комбинаторная мера информации показывает, сколько возможных исходов имеет то или иное событие.
Бросаем монетку Q=2. Играем с кубиком Q=6. Русское лото Q=90.
Чем меньше вероятность получить информацию, тем она больше.
Способ измерения информации путём оценки количества возможных комбинаций информационных элементов – комбинаторная мера информации.
12 – Q=2. 1 bit.
58 – Q=8. 3 bits.
810 – Q=10.
A16 – Q=16.
Это измерение неудобно. Было предложено измерять информацию, как вариант одного из 2 возможных исходов (1 бит).
Иванов 00
Петров 01 2 бита
Сидоров 10
Николаев 11
Формула Р. Хартли.
Двоичная логарифмическая мера
Т=log2N, где (бит)
N – кол-во комбинаций информационных элементов.
Понятие информации. Измерение информации. Количество и свойства информации. Системы представления информации. Единицы измерения информации.
Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах, их состояний, которые не уменьшают имеющуюся о них степень неопределённости и неполноты знаний.
Свойства информации.
Достоверность информации (истинная, ложная, ложная+истинная).
Полнота. Если информация содержит все необходимые данные и их достаточно для понимания и решения, то полна.
Ценность. Зависит от того, какие задачи может решить.
Ясность. Информация должна быть выражена в таком виде, который понятен получателю.
Измерение:
Комбинаторная мера информации показывает, сколько возможных исходов имеет то или иное событие.
Бросаем монетку Q=2. Играем с кубиком Q=6. Русское лото Q=90.
Чем меньше вероятность получить информацию, тем она больше.
Способ измерения информации путём оценки количества возможных комбинаций информационных элементов – комбинаторная мера информации.
12 – Q=2. 1 bit.
58 – Q=8. 3 bits.
810 – Q=10.
A16 – Q=16.
Это измерение неудобно. Было предложено измерять информацию, как вариант одного из 2 возможных исходов (1 бит).
Иванов 00
Петров 01 2 бита
Сидоров 10
Николаев 11
Формула Р. Хартли.
Двоичная логарифмическая мера
Т=log2N, где (бит)
N – кол-во комбинаций информационных элементов.
4)
Понятия количества информации. Измерение информации. Статиcтическая мера информации. Понятие и свойства энтропии.Измерение:
Комбинаторная мера информации показывает, сколько возможных исходов имеет то или иное событие.
Бросаем монетку Q=2. Играем с кубиком Q=6. Русское лото Q=90.
Чем меньше вероятность получить информацию, тем она больше.
Способ измерения информации путём оценки количества возможных комбинаций информационных элементов – комбинаторная мера информации.
12 – Q=2. 1 bit.
58 – Q=8. 3 bits.
810 – Q=10.
A16 – Q=16.
Это измерение неудобно. Было предложено измерять информацию, как вариант одного из 2 возможных исходов (1 бит).
Иванов 00
Петров 01 2 бита
Сидоров 10
Николаев 11
Формула Р. Хартли.
Двоичная логарифмическая мера
Т=log2N, где (бит)
N – кол-во комбинаций информационных элементов.
Чем меньше основание системы, тем меньше количество информации.
Задача.
27 монет (1 фальшивая – легче)
2 чашки весов
За сколько взвешиваний найдём?
log227
log23 за 1 взвешивание
х – количество взвешиваний
х * log23 ≥ log227
х ≥ 3
Формула Хартли применима для равновероятной информации.
2. Статистическая мера информации.
События рассматриваются, как возможный исход некоторого опыта, причем все исходы – полная группа событий.
Шеннон ввёл понятие неопределённой ситуации – энтропия, возникающая в опыте. Энтропия группы событий – количественная мера его неопределённости => информативности, выраженной как средняя функция множества вероятностей каждого из возможных исходов опыта.
N – возможное количество исходов опыта.
k – количество типов возможных исходов
n – количество повторов i-го исхода
Ii – количество информации типа исхода
Среднее количество полученной информации:
Iср=(n1I1+n2I2+…+nkIk)/N
I = log2(1/p) = -log2p, где р – вероятность появления события
Iср=(n1 (-log2p1)+ n2 (-log2p2)+…+ nk(-log2pk))/N
Iср=n1/N(-log2p1)+ n2/N (-log2p2)+…+ nk/N (-log2pk)
вероятность события
Iср=p1(-log2p1)+…+ pk(-log2pk)
Iср=-∑ pi log2pi=H – энтропия
Свойства энтропии
Всегда неотрицательна p<1 => log<0
=0, когда 1 из pi=1, а все остальные=0, событие предопределено
Имеет наибольшее значение, когда события равновероятны
Энтропия объекта, состояние, которое образуется совместной реализацией состояний 2 других объектов, равных сумме энтропий исходных объектов.
5) Системы счисления информации. Правила перевода чисел из одной системы счисления в другую. Понятия бита и байта.Системы счисления
СС – совокупность приёмов и правил для записи чисел цифровыми знаками, символами. СС должны обеспечивать возможность представления любого числа в рассматриваемом диапазоне, единственность представления.
СС:
позиционные (значение цифры зависит от позиции в записи, место – разряд, кол-во цифр – разрядность; каждому разряду соответствует степень основания)
непозиционные
Понятие бита и байта
В ЭВМ информация должна иметь физическое представление, причём это представление должно быть наиболее простым. Одна единица информации – бит (дискретная – либо есть либо нет); кол-во информации. 8бит = 1байт.
28 = 256. 1Кбайт = 1024 байт. 1Мбайт = 1024 Кбайт.
6)
История развития вычислительной техникию Поколение ЭВМ. Классы современных ЭВМ. Современное программное обеспечение. .
История развития вычислительной техники
1642 – французский ученый Блез Паскаль изобрёл устройство, механически выполняющее сложение чисел (паскалево колесо – ручное управление, зубчатые колёса, сложение десятичных чисел).
1673 – Готфрид Лейбниц сконструировал арифмометр, позволявший выполнять 4 арифметических действия. Служил для наведения артиллерии.
1-я половина XIX в. – Чарльз Бэббидж попытался построить универсальное вычислительное устройство. Его идея – создание программируемой счетной машины, выполняющей действия без участия человека. Она должна была исполнять программы, вводимые с помощью перфокарт, иметь «склад» для запоминания данных и промежуточных результатов. Ада Лавлейс (дочь Байрона) – 1-й программист, сыграла большую роль в проекте Бэббиджа.
1941 – К. Цузе изобрел автоматический цифровой компьютер Z3 (элементы обеспечивают возможность работы с 2-ичной системой). Z3 имел 2600 электромеханических реле, управление осуществлялось с помощью перфолент. Ввод осуществлялся с помощью 4-кнопочной клавиатуры, а вывод – с помощью лампового экрана. 1944г. – Z3 разрушен.
Главный недостаток всех первых компьютеров – использование механических реле. Их скорость относительно невысокая, а потребление питания существенное.
1943 – в почтовом департаменте Англии был создан программируемый компьютер Colossus. В качестве переключательных элементов он имел около 2000 электровакуумных ламп.
1945г. – в США была создана научная группа для создания универсального компьютера, в которую входил австрийский ученый Джон фон Нейман.
1946г. – создание компьютера ENIAC, который имел электровакуумные лампы, высокую скорость сложения и умножения чисел. Недостатки: стоимость 750000$, размер 300 кв.м.
Поколения ЭВМ
1. Основной признак – элементарная база, состоящая из электровакуумных ламп. Недостатки: большие габариты, большие затраты электроэнергии, большое время переключения состояний, высокая стоимость, быстрый износ.
2. Середина 50-х. Элементная база – транзистор. Это позволило уменьшить габариты, увеличить скорость и уменьшить стоимость. ЭВМ 2-го поколения производились уже серийно. Принципиальное отличие: работа с алгоритмическими языками программирования высокого уровня. Появились телетайпы для ввода и печатающие устройства для вывода информации, накопители на магнитных дисках.
3. Элементная база – интегральные микросхемы, появившиеся в 1960-х гг. В их состав были включены дисплеи, накопители на магнитных дисках, и некоторые другие элементы. ЭВМ 3-го поколения уже производились промышленно, и решались на них достаточно серьезные задачи.
4. В 1970-х гг. появились большие интегральные схемы (БИС), где на одной полупроводниковой пластине находилось несколько тысяч транзисторов. Такая высокая степень интеграции позволила создать микропроцессор (1972г). На их основе появился ПК. Кроме того, ЭВМ 4-го поколения имели цветные графические дисплеи, магнитные диски, электронные печатающие устройства.
5. ЭВМ 5-го поколения имеют элементной базой так называемые большие интегральные схемы, которые на одной пластине имеют миллионы транзисторов. Это позволило увеличить вычислительную мощность компьютера и все остальные элементы ПК должны соответствовать.
Классы современных ЭВМ:
1. Супер ЭВМ – многопроцессорный вычислительный комплекс, имеющий 64- или 128-разрядный процессор, десятки, а то и сотни гигабайт оперативной памяти; десятки, сотни терабайт ПЗУ. Единственный недостаток – высокая стоимость. Супер ЭВМ фирмы Cray стоит около 70 млн. долларов
2. Рабочая станция (Power Station) – ЭВМ, основанная на RISK-процессорах (имеют меньшую производительность, чем супер ЭВМ, но большую, чем ПК). Выпускаются серийно и предназначены для определенных задач: САПР, геоинформационных систем, систем аудио- и видеомонтажа, банковских систем. В настоящее время большинство рабочих станций работает на UNIX-подобных ОС, которые называются AIX. Стоимость рабочей станции – от 20 до 100 тыс. долларов.
3. Персональные компьютеры – предназначены для решения очень широкого класса задач. Первый персональный компьютер был выпущен фирмой Apple в 1972 году. В 1981 году появился первый ПК IBM.
В ПК IBM используется принцип «открытой архитектуры»: регламентируется и стандартизируется только принцип действия компьютера и его конфигурации. Таким образом, компьютер можно собирать из отдельных узлов, выпущенных независимыми производителями. Кроме того, в компьютер можно вставлять различные устройства, удовлетворяющие стандартам.
Программное обеспечение ЭВМ:
1. прикладное ПО
2. системное ПО
а) операционные системы
б) сервисные программы
3. системное программирование
Системное ПО – это комплекс программ, описаний и инструкций, обеспечивающих функционирование ЭВМ и выполнение заданий пользователя. Программы, входящие в состав системного ПО, практически не зависят от характера задач, решаемых пользователем, а обеспечивают условия для работы прикладных программ.
Операционная система является неотъемлемой частью любой ЭВМ, дополняющей ее аппаратные средства. ОС - комплекс системы программ, загружаемых при включении ЭВМ и осуществляющих следующие функции:
1. Управление ресурсами ЭВМ (оперативной памятью, пространством на дисках, отображением информации на мониторе и др.)
2. Запуск прикладных программ на выполнение
3. Обеспечение интерфейсом для работы с пользователем.
MS-DOS, MS Windows, UNIX (Linux).
В 1985 – Windows 1.0
1987 – Windows 2.0
1990 – Windows 3.0
1992 – Windows 3.1
Windows 95, Windows 98, Windows NT, Windows Millennium, Windows 2000.
В настоящее время – Windows XP (наиболее широкое распространение) и Windows Vista.
Сервисные программы
Служат в качестве дополнения к ОС и выполняют различного рода сервисные задачи, такие как диагностика аппаратного обеспечения, обслуживание жестких дисков, архивирование и создание резервных копий, обнаружение и удаление компьютерных вирусов.
Системное программирование
Первые программы для ЭВМ записывались непосредственно в двоичном коде. В начале 50-х годов появились первые сообщения о разработке первых языков программирования. В 1958г. Появился язык ФОРТРАН. Он предназначен для математических расчетов.
С 1960г. Начал распространяться язык АЛГОЛ. В 1959г. Для решения экономических задач – язык КОБОЛ.
1964 – как универсальный язык для разработки математических, экономических задач и задач системного программирования был разработан универсальный язык ПЛ/1, который широко применялся для больших ЭВМ.
1965 – для персонального ЭВМ был разработан язык Бейсик. Разработан специально для электронщиков, чтобы тестировать компьютер.
1971 – для обучения программированию разработан язык Паскаль.
1972 – было объявлено о разработке языка Си, ориентированного на задачи системного программирования.
Все вышеперечисленные языки программирования предназначены для описания алгоритмов, решения задач. Такие языки наз. процедурно-ориентированными.
1983 – появление языка Си++, дополнение возможностей языка СИ.
СИ++ представляет возможность определения новых типов и реализует работу с объектами, определяемыми пользователем. Языки такого типа называются объектно-ориентированными. В настоящее время такой подход получил очень широкое распространение, очень просто позволяет пользоваться элементом, уже раз созданным.
Существуют проблемно-ориентированные языки на которых описывается постановка задачи и указываются входные данные при этом предполагается, что алгоритм решения будет построен автоматически.
Пролог, Лисп
Используется в ситуациях и.и. и экспертных группах.
Некоторым особняком стоит язык SQL, предназначенный для написания запросов в базу данных.
Языки низкого уровня – ассемблеры, которые являются машинно-ориентированными языками и на этом языке производится непосредственное управление элементами ЭВМ.
Прикладное ПО представляет собой комплекс программ используемых для конкретных задач, в какой либо области.