Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
информатика.rtf
Скачиваний:
20
Добавлен:
16.05.2015
Размер:
629.66 Кб
Скачать

1)

Информатика, как наука. Понятие кибернетики. Вопросы, изучаемые информатикой. Понятие информации. Уровни обработки и анализа информации. Способы хранения и передачи информации. Информационные технологии. Свойства информации.

Информатика.

Область человеческой деятельности, связанная с процессами преобразования с помощью вычислительной техники.

Техническая наука, систематизирующая приемы создания, хранения, воспроизведения, обработки и передачи данных с помощью средств вычислительной техники, а также принципы функционирование средств и управление.

Область научных знаний, Объект которой информация, ее свойства, общие закономерности преобразования, технологии обработки с использованием прогрессивных средств.

Кибернетика – наука об общих законах получения, хранения, передачи, переработки информации в сложных системах (технические, биологические, социальные и другие системы).

Информатика включат в себя бесконечность математических, инженерных, философских аспектов, через которые она становиться фундаментальной наукой, занимающейся схематично формализованным представлением информации, вопросами ее обработки, а также различными средствами, с помощью которых можно производить обработку информации.

Информатика включает:

1)технические (методы и средства надежного сбора, хранения, передачи, обработки и представления информации);

2)семантические (определяет способы описания смысла информации, изучает языки ее описания);

3)прагматические (описывает методы кодирования информации);

4)синтаксические (решение задач по формализации, автоматизация различных видов научно-технической деятельности).

Информационные технологии – совокупность технологических элементов (устройств и методов), используемых людьми для обработки информации.

Обработка информации – получение одних информационных объектов из других путем выполнения элементов алгоритма.

Процессы обработки:

1) фиксирование, классификация, расположение информации с целью её хранения и последовательного извлечения и распределения между потребителями;

2) передача и преобразование информации, связанная с формальным увеличением или уменьшением её объёма, представлением в другой форме без преобразования смысла;

3) неформальная обработка информации, связанная с анализом смысла, и приносимая пользу от её применения.

2)

Основные понятия информатики. Аспекты понятия информации. Представление информации. Представление информации. Свойство информации. Понятие количества информации.

Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах, их состояний, которые уменьшают имеющуюся о них степень неопределённости и неполноты знаний.

Представление – это способ отображения внешней формы информации.

Кодирование – процесс представления информации в определённом виде.

Информация – понятие абстрактное.

Интерпретация – переход от представления информации к абстрактной. Важно, чтобы система представления была единой и согласованной. Внешняя форма информации – это представления.

Информационные технологии – совокупность технологических элементов (устройств и методов), используемых людьми для обработки информации.

Обработка информации – получение одних информационных объектов из других путем выполнения элементов алгоритма.

Существуют разные системы представления информации:

  1. Высказывательная. Используется в обычной жизни (истинное и ложное высказывание). Высказывания – языковое образование, в отношении которого имеет смысл говорить об истинности/ложности. Логика высказывания – это характерный пример информационной системы. Высказывания, их языковое представление, правила преобразования – пример структуры, в которой достаточно часто используется информация. Связки и, или, не.

  2. Для представления информации в вычислительной технике используются системы счисления – системы, в которых кодируется информация по определённым правилам. В вычислительной технике удобно представлять информацию 2 цифрами (2 состояния) => используется двоичная система счисления. Количество информации можно посчитать (сигналы). Бит – это кусочек, элемент, частица.

Свойства информации.

Достоверность информации (истинная, ложная, ложная+истинная).

Полнота. Если информация содержит все необходимые данные и их достаточно для понимания и решения, то полна.

Ценность. Зависит от того, какие задачи может решить.

Ясность. Информация должна быть выражена в таком виде, который понятен получателю.

3)

Понятие информации. Измерение информации. Количество и свойства информации. Системы представления информации. Единицы измерения информации.

Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах, их состояний, которые не уменьшают имеющуюся о них степень неопределённости и неполноты знаний.

Свойства информации.

  1. Достоверность информации (истинная, ложная, ложная+истинная).

  2. Полнота. Если информация содержит все необходимые данные и их достаточно для понимания и решения, то полна.

  3. Ценность. Зависит от того, какие задачи может решить.

  4. Ясность. Информация должна быть выражена в таком виде, который понятен получателю.

Измерение:

  1. Комбинаторная мера информации показывает, сколько возможных исходов имеет то или иное событие.

Бросаем монетку Q=2. Играем с кубиком Q=6. Русское лото Q=90.

Чем меньше вероятность получить информацию, тем она больше.

Способ измерения информации путём оценки количества возможных комбинаций информационных элементов – комбинаторная мера информации.

12 – Q=2. 1 bit.

58 – Q=8. 3 bits.

810 – Q=10.

A16 – Q=16.

Это измерение неудобно. Было предложено измерять информацию, как вариант одного из 2 возможных исходов (1 бит).

Иванов 00

Петров 01 2 бита

Сидоров 10

Николаев 11

Формула Р. Хартли.

Двоичная логарифмическая мера

Т=log2N, где (бит)

N – кол-во комбинаций информационных элементов.

Понятие информации. Измерение информации. Количество и свойства информации. Системы представления информации. Единицы измерения информации.

Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах, их состояний, которые не уменьшают имеющуюся о них степень неопределённости и неполноты знаний.

Свойства информации.

  1. Достоверность информации (истинная, ложная, ложная+истинная).

  2. Полнота. Если информация содержит все необходимые данные и их достаточно для понимания и решения, то полна.

  3. Ценность. Зависит от того, какие задачи может решить.

  4. Ясность. Информация должна быть выражена в таком виде, который понятен получателю.

Измерение:

  1. Комбинаторная мера информации показывает, сколько возможных исходов имеет то или иное событие.

Бросаем монетку Q=2. Играем с кубиком Q=6. Русское лото Q=90.

Чем меньше вероятность получить информацию, тем она больше.

Способ измерения информации путём оценки количества возможных комбинаций информационных элементов – комбинаторная мера информации.

12 – Q=2. 1 bit.

58 – Q=8. 3 bits.

810 – Q=10.

A16 – Q=16.

Это измерение неудобно. Было предложено измерять информацию, как вариант одного из 2 возможных исходов (1 бит).

Иванов 00

Петров 01 2 бита

Сидоров 10

Николаев 11

Формула Р. Хартли.

Двоичная логарифмическая мера

Т=log2N, где (бит)

N – кол-во комбинаций информационных элементов.

4)

Понятия количества информации. Измерение информации. Статиcтическая мера информации. Понятие и свойства энтропии.Измерение:

  1. Комбинаторная мера информации показывает, сколько возможных исходов имеет то или иное событие.

Бросаем монетку Q=2. Играем с кубиком Q=6. Русское лото Q=90.

Чем меньше вероятность получить информацию, тем она больше.

Способ измерения информации путём оценки количества возможных комбинаций информационных элементов – комбинаторная мера информации.

12 – Q=2. 1 bit.

58 – Q=8. 3 bits.

810 – Q=10.

A16 – Q=16.

Это измерение неудобно. Было предложено измерять информацию, как вариант одного из 2 возможных исходов (1 бит).

Иванов 00

Петров 01 2 бита

Сидоров 10

Николаев 11

Формула Р. Хартли.

Двоичная логарифмическая мера

Т=log2N, где (бит)

N – кол-во комбинаций информационных элементов.

Чем меньше основание системы, тем меньше количество информации.

Задача.

27 монет (1 фальшивая – легче)

2 чашки весов

За сколько взвешиваний найдём?

log227

log23 за 1 взвешивание

х – количество взвешиваний

х * log23 ≥ log227

х ≥ 3

Формула Хартли применима для равновероятной информации.

2. Статистическая мера информации.

События рассматриваются, как возможный исход некоторого опыта, причем все исходы – полная группа событий.

Шеннон ввёл понятие неопределённой ситуации – энтропия, возникающая в опыте. Энтропия группы событий – количественная мера его неопределённости => информативности, выраженной как средняя функция множества вероятностей каждого из возможных исходов опыта.

N – возможное количество исходов опыта.

k – количество типов возможных исходов

n – количество повторов i-го исхода

Ii – количество информации типа исхода

Среднее количество полученной информации:

Iср=(n1I1+n2I2+…+nkIk)/N

I = log2(1/p) = -log2p, где р – вероятность появления события

Iср=(n1 (-log2p1)+ n2 (-log2p2)+…+ nk(-log2pk))/N

Iср=n1/N(-log2p1)+ n2/N (-log2p2)+…+ nk/N (-log2pk)

вероятность события

Iср=p1(-log2p1)+…+ pk(-log2pk)

Iср=-∑ pi log2pi=H – энтропия

Свойства энтропии

  1. Всегда неотрицательна p<1 => log<0

  2. =0, когда 1 из pi=1, а все остальные=0, событие предопределено

  3. Имеет наибольшее значение, когда события равновероятны

  4. Энтропия объекта, состояние, которое образуется совместной реализацией состояний 2 других объектов, равных сумме энтропий исходных объектов.

5) Системы счисления информации. Правила перевода чисел из одной системы счисления в другую. Понятия бита и байта.Системы счисления

СС – совокупность приёмов и правил для записи чисел цифровыми знаками, символами. СС должны обеспечивать возможность представления любого числа в рассматриваемом диапазоне, единственность представления.

СС:

  1. позиционные (значение цифры зависит от позиции в записи, место – разряд, кол-во цифр – разрядность; каждому разряду соответствует степень основания)

  2. непозиционные

Понятие бита и байта

В ЭВМ информация должна иметь физическое представление, причём это представление должно быть наиболее простым. Одна единица информации – бит (дискретная – либо есть либо нет); кол-во информации. 8бит = 1байт.

28 = 256. 1Кбайт = 1024 байт. 1Мбайт = 1024 Кбайт.

6)

История развития вычислительной техникию Поколение ЭВМ. Классы современных ЭВМ. Современное программное обеспечение. .

История развития вычислительной техники

1642 – французский ученый Блез Паскаль изобрёл устройство, механически выполняющее сложение чисел (паскалево колесо – ручное управление, зубчатые колёса, сложение десятичных чисел).

1673 – Готфрид Лейбниц сконструировал арифмометр, позволявший выполнять 4 арифметических действия. Служил для наведения артиллерии.

1-я половина XIX в. – Чарльз Бэббидж попытался построить универсальное вычислительное устройство. Его идея – создание программируемой счетной машины, выполняющей действия без участия человека. Она должна была исполнять программы, вводимые с помощью перфокарт, иметь «склад» для запоминания данных и промежуточных результатов. Ада Лавлейс (дочь Байрона) – 1-й программист, сыграла большую роль в проекте Бэббиджа.

1941 – К. Цузе изобрел автоматический цифровой компьютер Z3 (элементы обеспечивают возможность работы с 2-ичной системой). Z3 имел 2600 электромеханических реле, управление осуществлялось с помощью перфолент. Ввод осуществлялся с помощью 4-кнопочной клавиатуры, а вывод – с помощью лампового экрана. 1944г. – Z3 разрушен.

Главный недостаток всех первых компьютеров – использование механических реле. Их скорость относительно невысокая, а потребление питания существенное.

1943 – в почтовом департаменте Англии был создан программируемый компьютер Colossus. В качестве переключательных элементов он имел около 2000 электровакуумных ламп.

1945г. – в США была создана научная группа для создания универсального компьютера, в которую входил австрийский ученый Джон фон Нейман.

1946г. – создание компьютера ENIAC, который имел электровакуумные лампы, высокую скорость сложения и умножения чисел. Недостатки: стоимость 750000$, размер 300 кв.м.

Поколения ЭВМ

1. Основной признак – элементарная база, состоящая из электровакуумных ламп. Недостатки: большие габариты, большие затраты электроэнергии, большое время переключения состояний, высокая стоимость, быстрый износ.

2. Середина 50-х. Элементная база – транзистор. Это позволило уменьшить габариты, увеличить скорость и уменьшить стоимость. ЭВМ 2-го поколения производились уже серийно. Принципиальное отличие: работа с алгоритмическими языками программирования высокого уровня. Появились телетайпы для ввода и печатающие устройства для вывода информации, накопители на магнитных дисках.

3. Элементная база – интегральные микросхемы, появившиеся в 1960-х гг. В их состав были включены дисплеи, накопители на магнитных дисках, и некоторые другие элементы. ЭВМ 3-го поколения уже производились промышленно, и решались на них достаточно серьезные задачи.

4. В 1970-х гг. появились большие интегральные схемы (БИС), где на одной полупроводниковой пластине находилось несколько тысяч транзисторов. Такая высокая степень интеграции позволила создать микропроцессор (1972г). На их основе появился ПК. Кроме того, ЭВМ 4-го поколения имели цветные графические дисплеи, магнитные диски, электронные печатающие устройства.

5. ЭВМ 5-го поколения имеют элементной базой так называемые большие интегральные схемы, которые на одной пластине имеют миллионы транзисторов. Это позволило увеличить вычислительную мощность компьютера и все остальные элементы ПК должны соответствовать.

Классы современных ЭВМ:

1. Супер ЭВМ – многопроцессорный вычислительный комплекс, имеющий 64- или 128-разрядный процессор, десятки, а то и сотни гигабайт оперативной памяти; десятки, сотни терабайт ПЗУ. Единственный недостаток – высокая стоимость. Супер ЭВМ фирмы Cray стоит около 70 млн. долларов

2. Рабочая станция (Power Station) – ЭВМ, основанная на RISK-процессорах (имеют меньшую производительность, чем супер ЭВМ, но большую, чем ПК). Выпускаются серийно и предназначены для определенных задач: САПР, геоинформационных систем, систем аудио- и видеомонтажа, банковских систем. В настоящее время большинство рабочих станций работает на UNIX-подобных ОС, которые называются AIX. Стоимость рабочей станции – от 20 до 100 тыс. долларов.

3. Персональные компьютеры – предназначены для решения очень широкого класса задач. Первый персональный компьютер был выпущен фирмой Apple в 1972 году. В 1981 году появился первый ПК IBM.

В ПК IBM используется принцип «открытой архитектуры»: регламентируется и стандартизируется только принцип действия компьютера и его конфигурации. Таким образом, компьютер можно собирать из отдельных узлов, выпущенных независимыми производителями. Кроме того, в компьютер можно вставлять различные устройства, удовлетворяющие стандартам.

Программное обеспечение ЭВМ:

1. прикладное ПО

2. системное ПО

а) операционные системы

б) сервисные программы

3. системное программирование

Системное ПО – это комплекс программ, описаний и инструкций, обеспечивающих функционирование ЭВМ и выполнение заданий пользователя. Программы, входящие в состав системного ПО, практически не зависят от характера задач, решаемых пользователем, а обеспечивают условия для работы прикладных программ.

Операционная система является неотъемлемой частью любой ЭВМ, дополняющей ее аппаратные средства. ОС - комплекс системы программ, загружаемых при включении ЭВМ и осуществляющих следующие функции:

1. Управление ресурсами ЭВМ (оперативной памятью, пространством на дисках, отображением информации на мониторе и др.)

2. Запуск прикладных программ на выполнение

3. Обеспечение интерфейсом для работы с пользователем.

MS-DOS, MS Windows, UNIX (Linux).

В 1985 – Windows 1.0

1987 – Windows 2.0

1990 – Windows 3.0

1992 – Windows 3.1

Windows 95, Windows 98, Windows NT, Windows Millennium, Windows 2000.

В настоящее время – Windows XP (наиболее широкое распространение) и Windows Vista.

Сервисные программы

Служат в качестве дополнения к ОС и выполняют различного рода сервисные задачи, такие как диагностика аппаратного обеспечения, обслуживание жестких дисков, архивирование и создание резервных копий, обнаружение и удаление компьютерных вирусов.

Системное программирование

Первые программы для ЭВМ записывались непосредственно в двоичном коде. В начале 50-х годов появились первые сообщения о разработке первых языков программирования. В 1958г. Появился язык ФОРТРАН. Он предназначен для математических расчетов.

С 1960г. Начал распространяться язык АЛГОЛ. В 1959г. Для решения экономических задач – язык КОБОЛ.

1964 – как универсальный язык для разработки математических, экономических задач и задач системного программирования был разработан универсальный язык ПЛ/1, который широко применялся для больших ЭВМ.

1965 – для персонального ЭВМ был разработан язык Бейсик. Разработан специально для электронщиков, чтобы тестировать компьютер.

1971 – для обучения программированию разработан язык Паскаль.

1972 – было объявлено о разработке языка Си, ориентированного на задачи системного программирования.

Все вышеперечисленные языки программирования предназначены для описания алгоритмов, решения задач. Такие языки наз. процедурно-ориентированными.

1983 – появление языка Си++, дополнение возможностей языка СИ.

СИ++ представляет возможность определения новых типов и реализует работу с объектами, определяемыми пользователем. Языки такого типа называются объектно-ориентированными. В настоящее время такой подход получил очень широкое распространение, очень просто позволяет пользоваться элементом, уже раз созданным.

Существуют проблемно-ориентированные языки на которых описывается постановка задачи и указываются входные данные при этом предполагается, что алгоритм решения будет построен автоматически.

Пролог, Лисп

Используется в ситуациях и.и. и экспертных группах.

Некоторым особняком стоит язык SQL, предназначенный для написания запросов в базу данных.

Языки низкого уровня – ассемблеры, которые являются машинно-ориентированными языками и на этом языке производится непосредственное управление элементами ЭВМ.

Прикладное ПО представляет собой комплекс программ используемых для конкретных задач, в какой либо области.