Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
стр 103-113.doc
Скачиваний:
9
Добавлен:
21.11.2019
Размер:
3.61 Mб
Скачать

МОСКОВСКИЙ ГОСУДАРСТВЕННЫЙ ИНСТИТУТ

ЭЛЕКТРОНИКИ И МАТЕМАТИКИ

Кафедра ЭВА

доцент, к.т.н., Мартиросян С.Т.

КОНСПЕКТ ЛЕКЦИЙ

по курсу «Организация ЭВМ и систем»

для студентов специальности 220100 – Вычислительная техника, системы, комплексы и сети

МОСКВА – 2006

Содержание

Лекция 1. Базовые понятия информации 8

Введение 8

Информация, энтропия и избыточность при передаче данных 11

Информационные процессы 11

Основные структуры данных 12

Обработка данных 13

Способы представления информации и два класса ЭВМ 13

Представление данных в ЭВМ. 13

Байт Байт 14

Выводы 15

Вопросы и задания 15

Лекция 2. Компьютер – общие сведения 16

АЛУ 16

Центральное процессорное устройство 16

Устройства ввода/вывода 17

Память 17

Классификация запоминающих устройств 18

Оперативная память 20

Основные внешние устройства компьютера 21

Основные характеристики персональных компьютеров 24

Выводы 26

Вопросы и задания 26

Лекция 3. Многоуровневая компьютерная организация 26

Архитектура компьютера 26

Классическая структура ЭВМ - модель фон Неймана 28

1 Двоичная система счисления - компьютеры на электронных элементах должны работать не в десятичной, а в двоичной системе счисления; 28

2. Принцип программного управления и хранимой в памяти программы - компьютер работает под управлением программы, программа должна размещаться в одном из блоков компьютера - в запоминающем устройстве (первоначально программа задавалась путем установки перемычек на коммутационной панели); 28

3. Принцип однородности - команды, так же как и данные, с которыми оперирует компьютер, хранятся в одном блоке памяти и записываются в двоичном коде, то есть по форме представления команды и данные однотипны и хранятся в одной и той же области памяти; 29

4. Принцип адресности – основная память структурно состоит из нумерованных ячеек, т.е. доступ к командам и данным осуществляется по адресу. Трудности физической реализации запоминающего устройства большого быстродействия и большой памяти требуют иерархической организации памяти; 29

5. В компьютере используется параллельный принцип организации вычислительного процесса (операции над двоичными кодами осуществляются одновременно над всеми разрядами). 29

Особенности современных ЭВМ 30

Выводы 31

Вопросы и задания 31

Лекция 4. 32

Математическое обеспечение компьютеров 32

ПРОГРАММНОЕ ОБЕСПЕЧЕНИЕ 32

Библиотеки стандартных программ и ассемблеры 33

Высокоуровневые языки и системы автоматизированного программирования 33

Диалоговые ОС и СУБД 34

Прикладные программы и CASE – технологии 34

Компьютерные сети и мультимедиа 35

Операционные системы 35

Лекция 5.Вычислительные системы - общие сведения 37

Введение 37

Общие требования 38

Классификация компьютеров по областям применения 39

Персональные компьютеры и рабочие станции 39

Суперкомпьютеры 42

Увеличение производительности ЭВМ, за счет чего? 44

Параллельные системы 44

Использование параллельных вычислительных систем 46

Выводы 47

Вопросы и задания 47

Лекция 6 Структурная организация ЭВМ - процессор 47

Введение 47

Назначение процессора и его устройство 48

АЛУ 49

Устройство управления 49

Микропроцессорная память 51

Основная (оперативная) память - структура адресной памяти 51

Интерфейсная часть МП 53

Тракт данных типичного процессора 54

Базовые команды 55

Трансляторы 56

Архитектура системы команд и классификация процессоров 57

Микроархитектура процессора Pentium II 58

Выводы 60

Вопросы и задания 60

Лекция 6 Структурная организация ЭВМ - память 60

Общие сведения 60

Иерархия памяти компьютера 62

Оперативная память, типы ОП 64

Логическая организация памяти 64

Связывание адресов 65

Функции системы управления памятью 66

Кэш-память 66

Кэш-память прямого отображения 68

Тэг Строка Слово (байт) 68

Способы организации кэш-памяти 70

Разновидности строения кэш-памяти 72

Выводы 73

Вопросы и задания 74

Лекция 7 Логическая организация памяти 74

Введение 74

Адресная, ассоциативная и стековая организация памяти 75

Стековая память 76

Сегментная организация памяти. 77

Косвенная адресация 78

Типы адресов 79

Понятие виртуальной памяти 80

Страничное распределение 81

Свопинг 84

Выводы 85

Вопросы и задания 86

Лекция 8 Внешняя память компьютера 86

Введение 86

Жесткий диск (Hard Disk Drive) 86

Конструкция жесткого диска 87

Основные характеристики НМД: 88

Способы кодирования данных 89

Интерфейсы НМД 90

Структура хранения информации на жестком диске 90

Таблица размещения файлов 91

Кластер 91

Методы борьбы с кластеризацией 92

Магнито-оптические диски 93

Дисковые массивы и уровни RAID 94

Лазерные компакт-диски CD - ROM 96

CD-R 96

CD-RW 97

DVD 97

Выводы 97

Вопросы и задания 98

Лекция 9 Основные принципы построения систем ввода/вывода 98

Физические принципы организации ввода-вывода 98

Интерфейс 99

Магистрально-модульный способ построения ЭВМ 99

Структура контроллера устройства 102

Опрос устройств и прерывания. Исключительные ситуации и системные вызовы 103

Организация передачи данных 105

Прямой доступ к памяти (Direct Memory Access – DMA) 106

Логические принципы организации ввода-вывода 107

Структура системы ввода-вывода 107

Буферизация и кэширование 109

Заключение 110

Структура шин современного ПК 111

PCI Express 114

Чипсет 114

Выводы 116

Вопросы и задания 116

Лекция 10. BIOS и его настройки 116

Введение 116

Начальная загрузка компьютера 116

ЦПУ 117

B I O S 117

Вход в BIOS и основные параметры системы 119

Общие свойства – стандартная настройка параметров 120

Свойства BIOS 121

Свойства других чипсетов 122

Свойства интегрированных устройств 122

Свойства слотов PCI 124

Управление питанием 124

Пароли 125

Лекция 11 Особенности архитектуры современных ВС 126

Область применения и способы оценки производительности МВС 127

Классификация архитектур по параллельной обработке данных 129

Параллелизм вычислительных процессов 130

Параллелизм на уровне команд – однопроцессорные архитектуры 131

Конвейерная обработка 132

Суперскалярные архитектуры 134

Мультипроцессорные системы на кристалле 136

Технология Hyper-Threading  136

Многоядерность — следующий этап развития 140

Многопроцессорные архитектуры – параллелизм на уровне процессоров 142

Векторные компьютеры 142

Использование параллельных вычислительных систем 143

Выводы 144

Вопросы и задания 144

Лекция 12 Архитектура многопроцессорных ВС 144

Введение 144

Одной из отличительных особенностей многопроцессорной вычислительной системы является сеть обмена, с помощью которой процессоры соединяются друг с другом и/или с памятью. Существуют две основные модели межпроцессорного обмена: одна основана на передаче сообщений, другая - на использовании общей памяти. К первой группе относятся машины с общей (разделяемой) основной памятью, объединяющие до нескольких десятков (обычно менее 32) процессоров. В многопроцессорной системе с общей памятью один процессор осуществляет запись в конкретную ячейку, а другой процессор производит считывание из этой ячейки памяти. 144

SMP архитектура 144

SMP архитектура (symmetric multiprocessing) - cимметричная многопроцессорная архитектура. Главной особенностью систем с архитектурой SMP является наличие общей физической памяти, разделяемой всеми процессорами. 144

Сравнительно небольшое количество процессоров в таких машинах позволяет иметь одну централизованную общую память и объединить процессоры и память с помощью одной шины. Такой способ организации со сравнительно небольшой разделяемой памятью в настоящее время является наиболее популярным. Структура подобной системы представлена на рис. 11.1. 144

MPP архитектура 146

Гибридная архитектура (NUMA) 147

Организация когерентности многоуровневой иерархической памяти. 148

 PVP архитектура 149

Кластерная архитектура 149

Проблемы выполнения сети связи процессоров в кластерной системе. 149

Выводы 152

Лекция 13 Кластерные системы 152

Концепция кластерных систем 153

1. Высокая готовность 153

2. Высокое быстродействие 153

3. Масштабирование 153

4. Общий доступ к ресурсам 153

5. Удобство обслуживания 153

Разделение на High Avalibility и High Performance системы 154

Проблематика High Performance кластеров 155

Проблематика High Availability кластерных систем 155

Смешанные архитектуры 156

Лекция 14 Высокопроизводительные процессоры 158

Ассоциативные процессоры 158

Конвейерные процессоры 159

Матричные процессоры 160

Клеточные и ДНК процессоры 161

ДНК-процессоры  161

Клеточные компьютеры  163

Трансгенные технологии 163

Коммуникационные процессоры 164

Процессоры баз данных 165

Потоковые процессоры 166

Нейронные процессоры 166

Искусственные нейронные сети 168

Нейрокомпьютеры 168

Процессоры с многозначной (нечеткой) логикой 169

Лекция 15 Многомашинные системы – вычислительные сети 172

Введение 172

Простейшие виды связи сети передачи данных 172

Связь компьютера с периферийным устройством 173

Связь двух компьютеров 174

Многослойная модель сети 176

Функциональные роли компьютеров в сети 177

Одноранговые сети 178

Сети с выделенным сервером 179

Гибридная сеть 182

Сетевые службы и операционная система 183

Лекция 16. Файловая система компьютера 184

Введение 184

Общие сведения о файлах 186

Организация файлов и доступ к ним 187

Операции над файлами 189

Директории. Логическая структура файлового архива 190

Разделы диска. Организация доступа к архиву файлов. 192

Операции над директориями 192

Защита файлов 193

Контроль доступа к файлам 193

Списки прав доступа 193

Заключение 194

Лекция 17. Сети и сетевые операционные системы 195

Введение 195

Для чего компьютеры объединяют в сети 195

Сетевые и распределенные операционные системы 196

Взаимодействие удаленных процессов как основа работы вычислительных сетей 196

Основные вопросы логической организации передачи информации между удаленными процессами 198

Понятие протокола 199

Многоуровневая модель построения сетевых вычислительных систем 200

Проблемы адресации в сети 204

Одноуровневые адреса 204

Двухуровневые адреса 204

Удаленная адресация и разрешение адресов 205

Локальная адресация. Понятие порта 207

Полные адреса. Понятие сокета (socket) 208

Проблемы маршрутизации в сетях 208

Связь с установлением логического соединения и передача данных с помощью сообщений 211

Синхронизация удаленных процессов 212

Заключение 212

Лекция 18. Система счисления и архитектура ЭВМ 212

Введение 212

Системы счисления и их роль в истории компьютеров 213

3. Компьютеры на электронных элементах должны работать не в десятичной, а в двоичной системе счисления. 215

4. Программа должна размещаться в одном из блоков компьютера - в запоминающем устройстве. 215

5. Программа, так же как и числа, с которыми оперирует компьютер, записываются в двоичном коде, то есть по форме представления команды и числа однотипны. 215

6. Трудности физической реализации запоминающего устройства большого быстродействия и большой памяти требуют иерархической организации памяти. 215

7. Арифметическое устройство компьютера конструируется на основе схем, выполняющих операцию сложения. 215

8. В компьютере используется параллельный принцип организации вычислительного процесса (операции над двоичными кодами осуществляются одновременно над всеми разрядами). 215

«Золотое сечение» и компьютер Фибоначчи 216

Геометрическое определение "золотого сечения" 217

Алгебраические свойства золотой пропорции 218

Фибонччи и компьютеры 222

"Троичный принцип" Николая Брусенцова. 226

Список литературы: 226

Лекция 1. Базовые понятия информации Введение

Мы начинаем первое знакомство с величайшим достижением нашей цивилизации, стоящем в одном ряду с изобретением книгопечатания и открытием электричества – компьютером. Сначала мы вспомним базовые понятия информатики, как науки, изучающей основные аспекты получения, хранения, преобразования и передачи информации. Затем мы раскроем сущность, принцип работы компьютера как технического устройства. Затем мы изучим наиболее оптимальные способы соединений компьютерных устройств и технологий с целью получения максимальной эффективности хранения, обработки и передачи информации.

Особенностью нашего курса будет пристальное внимание к фундаментальным аспектам компьютерных и сетевых технологий. Еще одна особенность, мы будем помнить, что ПК давно перестал быть просто вычислителем. Это универсальная система обработки больших и разнородных информационных потоков. А что такое информационный поток? Или более конкретно - Что такое информация?

В сотнях книг и учебниках это понятие трактуется по-разному. А ведь все мы интуитивно понимаем, что это такое. В чем здесь дело? А дело в том, что понятие информации стоит в одном ряду с такими фундаментальными понятиями как энергия, вещество, энтропия, время. Действительно, в природе существует два фундаментальных вида взаимодействия: обмен веществом и обмен энергией (не будем вдаваться в тонкости фактической эквивалентности этих двух явлений). Фундаментальность их проявляется в том, что все остальные взаимодействия происходят только посредством этих взаимодействий. Эти два взаимодействия являются симметричными и подчиняются фундаментальному закону сохранения – сколько вещества и/или энергии один объект передал другому, столько он потерял, а другой приобрел (рассматриваются замкнутые системы, в которых потери можно охарактеризовать просто другими видами взаимодействия). Совсем иная картина возникает при информационном взаимодействии. Попробуем выделить необходимый и достаточный признак, по которому можно будет определить, относится то или иное явление к понятию информация. В этом контексте сформулируем наиболее общее свойство информации.

Любое взаимодействие между объектами, в процессе которого один приобретает некоторую субстанцию, а другой ее не теряет (иногда тоже приобретает – явление структурирования) называется ИНФОРМАЦИОННЫМ ВЗАИМОДЕЙСТВИЕМ. При этом передаваемая субстанция называется ИНФОРМАЦИЕЙ.

Если энергия определяет возможность совершения действия, то информация определяет возможность целесообразного выбора этого действия.

Из этого определения следуют два свойства:

  • информация не может существовать вне взаимодействия объектов;

  • информация не теряется ни одним из них в процессе этого взаимодействия.

Чисто утилитарно, суть этого понятия кроется в ответе на вопрос: какие задачи помогает решать информация (а не что она собой представляет).

Информация устраняет неопределенность, предоставляет человеку или техническому устройству возможность сделать выбор в пользу одного из нескольких равноправных вариантов.

Впервые понятие информации ввел американский математик Клод Шеннон, рассматривая процесс передачи сообщения между двумя точками в 1948 г. как численную меру неопределенности или неупорядоченности, с которой посланное сообщение прибывает в пункт назначения. Он назвал этот параметр энтропией, применив термин из термодинамики, который там используется для оценки неупорядоченности материи и характеризует несимметричные взаимодействия. Более того, Шеннон предложил формулу, позволяющую определить количество информации, содержащееся в сообщении:

I = Log 2 P

где I – количество информации в битах или энтропия вероятности;

P – вероятность, величина неопределенности, число возможных вариантов.

М одель передачи сообщения по Шеннону

Отметим одну интересную особенность этого выражения: символ с высокой вероятностью появления кодируется несколькими битами, тогда как маловероятный символ требует многих бит. Другими словами, энтропия системы, объекта с большим числом степеней свободы очень велика, больше величина хаоса, беспорядка. Однако не всем и не сразу стала очевидной связь количества информации и энтропии, попробуем разобраться в этом.

В работах Планка, а главным образом Больцмана понятие энтропии трактовалась, как мера неумолимой тенденции всякой системы двигаться от менее вероятного состояния к более вероятному состоянию. Наиболее вероятным состоянием системы является РАВНОВЕСНОЕ состояние, а любая система движется к состоянию равновесия. Содержание второго постулата (принципа) термодинамики формулирует этот закон более строго – энтропия замкнутой системы не убывает (растет для необратимых процессов и остается постоянной для обратимых:

Hs = k Ln Wt

где k – постоянная Больцмана;

Wt – термодинамическая вероятность состояния системы.

Сравним это выражение с определением количества информации данное Шенноном. Очевидно сходство обоих выражений и это сходство носит фундаментальный характер. Как мы уже говорили, энтропия является функцией статистического состояния системы (мерой ее неупорядоченности, хаоса). Пусть имеется некоторая система, энтропия которой равна Н нач. После получения некоторой информации (либо о состоянии объекта, либо о взаимодействии с внешней средой) энтропия должна уменьшаться (растет порядок, уменьшается хаос). В широком смысле можно сказать, что информация, принимаемая объектом, необходимо является для него целесообразной, в противном случае это – дезинформация. Следовательно, количество полученной информации можно определить следующим образом:

I = Н нач – Н кон

Количество получаемой объектом информации численно равно неопределенности по выбору действий ведущих к достижению целей объекта или энтропии устраненной благодаря сообщению. Очевидно, что в данном случае речь идет о синтаксической мере информации. Информация устраняет неопределенность, структурирует систему.

Пример:

Примитивные формы информационного взаимодействия в чистом виде можно выделить уже в неживой природе. Действительно, каталическое взаимодействие. Объект, называемый катализатором изменяет скорость протекания химической реакции между группой других объектов, сам катализатор остается неизменным по всем своим свойствам. Ярчайшим примером информационного взаимодействия в ходе которого уменьшается энтропия всей системы, а химические, физические свойства катализатора остаются неизменными – является реакция кристаллизации насыщенного солевого раствора в присутствии кристаллической «затравки».

Обратите внимание на еще одно немаловажное свойство информации – изменение возможно и без получения информации, но при этом оно будет менее вероятным.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]