Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Ответы на экзамен по информатики.docx
Скачиваний:
187
Добавлен:
23.12.2018
Размер:
337.73 Кб
Скачать
  1. Информатика в системе наук. История развития информатики как науки. Информация: определение, измерение информации.

История возникновения информатики

  • первая половина XIX в. - французский физик Андре Мари Ампер решил создать единую классификацию всех наук. Эту науку он назвал кибернетикой от греческого слова кибернетикос (искусный в управлении)

  • 1948 г. - Норберт Винер возродил термин «кибернетика» и определил ее как науку об управлении в живой природе и технических системах

Информатика возникла из кибернетики, впитав из неё понятие информации, идеи автоматического управления и коммуникации.

В 40-50-е гг. ХХ в. идёт процесс становления компьютеров и другой информационной техники.

Термин "информатика" происходит от французских слов, что дословно означает "информационная автоматика". Понятие «Информатика» стало международным с середины 70-х гг.

1983 г. - в России утверждён термин «информатика» на сессии годичного собрания Академии наук СССР, где рассматривался вопрос организации нового отделения информатики, ВТ и автоматизации.

Информация — это обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспособления к нему наших чувств.

Информация есть характеристика не сообщения, а соотношения между сообщением и его потребителем. Без наличия потребителя, хотя бы потенциального, говорить об информации бессмысленно.

Измерение информации

Подходы к определению количества информации.   Формулы Хартли и Шеннона.

Американский инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N.

Формула Хартли:  I = log2N

Американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

Формула Шеннона: I = — ( p1log2 p1 + p2 log2 p2 + . . . + pN log2 pN), где pi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.

В качестве единицы информации Клод Шеннон предложил принять  один  бит. 

Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений   (типа "орел"—"решка", "чет"—"нечет" и т.п.).

В вычислительной технике битом называют наименьшую "порцию" памяти компьютера, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.

1 бит = 8 байт

1 Килобайт (Кбайт) = 1024 байт = 210 байт,

1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,

1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт,

1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,

1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.

За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации.

  1. Истоки зарождения вычислительной техники. Этапы развития вт. Поколения эвм.

Древние средства счета:

  • Кости с зарубками

  • Узелковое письмо (Южная Америка, VII век н.э.)

  • Саламинская доска

Первые проекты счетных машин:

Леонардо да Винчи (XV в.) – суммирующее устройство с зубчатыми колесами: сложение 13-разрядных чисел

Вильгельм Шиккард (XVI в.) – суммирующие «счетные часы» сложение и умножение,6-разрядных чисел (машина построена, но сгорела)

«Паскалина» (1642). Изобрёл Блез Паскаль (1623 - 1662). Была построена. Характеристики: зубчатые колеса, сложение и вычитание 8-разрядных чисел, десятичная система.

Машина Лейбница (1672) . Изобрёл Вильгельм Готфрид Лейбниц (1646 - 1716). Основные характеристики: сложение, вычитание, умножение, деление, 12-разрядные числа, десятичная система.

Машины Чарльза Бэббиджа : разностная машина (1822), аналитическая машина (1834) Основные характеристики: «мельница» (автоматическое выполнение вычислений), «склад» (хранение данных), «контора» (управление), ввод данных и программы с перфокарт, ввод программы «на ходу».

Ада Лавлейс (1815-1852). Первая программа – вычисление чисел Бернулли (циклы, условные переходы), 1979 – язык программирования Ада

Первые компьютеры

  • 1937-1941. Конрад Цузе: Z1, Z2, Z3, Z4. Основные характеристики: электромеханические реле (устройства с двумя состояниями), двоичная система, использование булевой алгебры, ввод данных с киноленты.

  • 1939-1942. Первый макет электронного лампового компьютера, Дж. Атанасофф. Основные характеристики: двоичная система, решение систем 29 линейных уравнений.

Принципы фон Неймана

  • Принцип двоичного кодирования: вся информация кодируется в двоичном виде.

  • Принцип программного управления: программа состоит из набора команд, которые выполняются процессором автоматически друг за другом в определенной последовательности.

  • Принцип однородности памяти: программы и данные хранятся в одной и той же памяти.

  • Принцип адресности: память состоит из пронумерованных ячеек; процессору в любой момент времени доступна любая ячейка.

Поколения ЭВМ

Первое поколение

Второе поколение

Третье поколение

Четвертое поколение

Годы

1951-1960

1960-1965

1965 -1975

1975 -1980

Основной логичес - кий элемент

Электронная лампа

Транзистор (изобретён в 1948 г.)

ИС, СИС

БИС(1971 г. - появился 1-ый микропроцессор)

Техноло - гия и емкость оперативной памяти (слов)

Линии задержки, электронно-лучевые трубки, ферритовые матрицы

1000 –

10 000

Ферритовые матрицы,

10 000 –

1 000 000

Ферритовые матрицы, 105 - 107

Полупроводниковые БИС,

107- 10 8

Устройства ввода-вывода

Перфокарты, перфоленты, алфавитно-цифровые печатающие устройства (АЦПУ)

Алфавитно-цифровые дисплеи, печатающие устройства

Мировой парк

> 5000 шт. (1960 г.)

>30 000 шт. (1965 г.)

> 300 000 шт. (1975 г.)

>1 000 000 шт. (1980 г.)

Быстродействие (оп/с)

105 - 107

10 6 - 10 8