- •Оглавление
- •Введение (новый весь раздел)
- •Архитектуры, характеристики, классификация эвм
- •Однопроцессорные архитектуры эвм
- •Конвейерная обработка команд из раздела 3.5
- •Cуперскалярная обработка из раздела 1.1.1 с дополнением
- •Архитектура sisd
- •Vliw-архитектура
- •Simd-архитектура
- •Многоядерные структуры процессора и многопотоковая обработка команд
- •Технические и эксплуатационные характеристики эвм
- •Классификация эвм
- •Классификация эвм по назначению
- •Классификация эвм по функциональным возможностям
- •Функциональная и структурная организация эвм
- •Обобщенная структура эвм и пути её развития
- •Типы данных
- •Структура и форматы команд эвм
- •Способы адресации информации в эвм
- •2.4.1. Абсолютные способы формирования исполнительного адреса
- •2.4.2. Относительные способы формирования исполнительных адресов ячеек памяти
- •Примеры форматов команд и способов адресации
- •Форматы команд и способы адресации в интеловских процессорах
- •Форматы команд и способы адресации в risc-процессорах
- •Особенности системы команд ia-64
- •Раздел 2.6 перенесен из раздела 3.6 предыдущего пособия
- •Принципы организации системы прерывания программ
- •ФункциональнаЯ и структурнаЯ организация центрального процессора эвм
- •НИзменен номер азначение и структура центрального процессора
- •Назначение, классификация и организация цуу
- •Регистровые структуры процессоров amd64 (Intel64)
- •Регистровые структуры процессоров ia-64
- •Структурная организация современных универсальных микропроцессоров
- •Стратегия развития процессоров Intel
- •Особенности многоядерной процессорной микроархитектуры Intel Core
- •Микроархитектура Intel Nehalem
- •Семейство процессоров Intel Westmere
- •Микроархитектура amd к10
- •Современное состояние и перспективы развития микропроцессоров для Unix-серверов
- •Микропроцессоры семейства Ultra sparc
- •Микропроцессор ibm power 7
- •Микропроцессор Intel Itanium 9300 (Tukwila)
- •Микропроцессор Intel Nehalem ex
- •Принципы организации подсистемы памяти эвм и вс
- •Иерархическая структура памяти эвм
- •Организация стека регистров
- •Способы организации кэш-памяти
- •Типовая структура кэш-памяти
- •Способы размещения данных в кэш-памяти
- •Методы обновления строк основной памяти и кэша
- •Методы замещения строк кэш-памяти
- •МУбран абзац ногоуровневая организация кэша
- •Принципы организации оперативной памяти
- •Общие положения
- •Методы повышения пропускной способности оп
- •М Изменён номер етоды управления памятью
- •ОИзменен номер рганизация виртуальной памяти
- •Методы ускорения процессов обмена между оп и взу
- •ОрганизациЯ системНого интерфейса и вВода-вывода информации
- •Общая характеристика и классификация интерфейсов
- •Способы организации передачи данных
- •Системная организация компьютеров на базе современных чипсетов
- •Системная организация на базе чипсетов компании Intel
- •Системная организация на базе чипсета amd
- •Многопроцессорные и многомашинные вычислительные системы
- •Архитектуры вычислительных систем
- •Сильносвязанные многопроцессорные системы
- •Слабосвязанные многопроцессорные системы
- •Список литературы
- •Организация эвм и систем
Принципы организации оперативной памяти
Общие положения
Оперативная (основная) память представляет собой следующий уровень иерархии памяти. Оперативная память удовлетворяет запросы кэш-памяти и устройств ввода/вывода. Она является местом назначения для ввода и источником для вывода. Для оценки производительности (быстродействия) основной памяти используются следующие параметры: время доступа, длительность цикла памяти, латентность и пропускная способность.
Как было сказано выше, время доступа – это время, проходящее с момента обращения к памяти до момента считывания данных. Данная величина приблизительно одинакова для всех типов динамической памяти и составляет примерно 50 нсек. Время доступа актуально при случайном доступе к памяти, т. е., когда последовательно считываемые ячейки памяти принадлежат различным строкам матрицы памяти.
Если говорить о блочной передачи, то более показательной характеристикой является время цикла, т. е. время между двумя последовательными обращениями к ячейкам памяти. Первый цикл обращения всегда равен времени доступа, т. е. около 50 нс. Но при последующих циклах обращения в пределах одной страницы (строки матрицы) время существенно меньше и составляет 10 нс или 7,5 нс. Любая динамическая память характеризуется циклами доступа, записываемыми в виде цепочек типа 5–1–1–1 или 5–2–2–2 и т. д. Такая цепочка определяет количество тактов, необходимых для чтения первых четырех элементов (байт, слово, двойное слово) данных в страничном режиме доступа. Первая цифра в таком обозначении определяет время доступа, то есть количество тактов, прошедших от начала обращения к банку памяти до появления данных на шине. Соответственно, при работе в страничном режиме следующие данные появятся на шине уже через меньшее количество тактов. Например, при цепочке 5–1–1–1 последующие данные появляются без задержек, т. е. с каждым тактовым импульсом.
Латентность памяти определяется некоторым набором значений временных задержек, происходящих в модуле памяти с момента прихода команды чтения (записи) до ее выполнения. Эти значения задержек принято называть таймингами. При описании памяти принято использовать четыре тайминга tCL, tRCD, tRP, tRAS (иногда дополнительно указывается и Command rate), причем записываются они обычно в этой же последовательности в виде 4–4–4–12 (1Т), где цифры указывают количество затраченных тактов синхронизации (в данном случае цифровые значения взяты произвольно).
Перед тем, как расшифровать аббревиатуры указанных таймингов, несколько слов о принципах организации и работы оперативной памяти. Ядро памяти организовано в виде двумерной матрицы. Для получения доступа к той или иной ячейке необходимо указать адреса соответствующей строки и столбца. Для ввода адреса строки используется стробирующий сигнал RAS, а для адреса столбца – стробирующий сигнал CAS. Порядок обращения к памяти начинается с установки регистров управления. После чего вырабатывается сигнал выбора нужного банка памяти и по прошествии (задержки) Command rate осуществляется ввод адреса строки и подача стробирующего сигнала RAS (обычно эта задержка составляет один или два такта). С приходом положительного фронта тактового импульса открывается доступ к нужной строке, а адрес строки помещается в адресный буфер строки, где он может удерживаться столько времени, сколько нужно. Через промежуток времени, называемый RAS to CAS delay (tRCD) – то есть задержка подачи сигнала CAS относительно сигнала RAS, подается стробирующий импульс CAS, под действием которого происходит выборка адреса столбца и открывается доступ к нужному столбцу матрицы памяти. Затем, через время CAS latency (tCL), на шине данных появляется первое слово, которое может быть считано процессором. После завершения работы со всеми ячейками активной строки выполняется команда деактивации Precharge, позволяющая перейти к следующей строке (tRP – это time of Row Precharge: тайминг между завершением обработки одной строки и перехода к другой). Значение tRAS (time of Active to Precharge Delay) считается одним из основных параметров, поскольку он описывает время задержки между моментом активации строки и моментом подачи команды деактивации Precharge, которой заканчивается работа с этой строкой. Общее правило гласит: чем меньше тайминги при одной тактовой частоте, тем быстрее память. Более того, в целом ряде случаев быстрее оказывается память с меньшими таймингами, работающая даже на более низкой тактовой частоте. Память с более высокой тактовой частотой имеет, как правило, более высокие тайминги.
Другой важнейшей характеристикой ОП является ее пропускная способность, которая определяется как произведение частоты работы памяти на объем данных, передаваемых за один такт. Самый простой способ увеличения максимальной пропускной способности памяти заключается в увеличении частоты ее работы. Однако на практике реализовать это совсем не просто. Вспомним, что элементарной ячейкой динамической памяти является конденсатор – инерционное по своей природе устройство. Чтобы произвести считывание информации с конденсатора, необходимо его разрядить, для чего требуется определенное время, пропорциональное емкости конденсатора, – сделать это мгновенно невозможно. Следовательно, нельзя повышать частоту ядра памяти до бесконечности. Кроме того, динамическая память требует периодической регенерации, чтобы восстанавливать заряды конденсаторов, а для зарядки конденсаторов тоже необходим определенный временной интервал. В результате повышение частоты ядра памяти сопряжено с непреодолимыми трудностями. Конечно, применение более миниатюрных конденсаторов повышает их быстродействие, однако для этого нужно использовать иную проектную норму при производстве чипов памяти. К тому же переход на новый технологический процесс производства не может кардинально увеличить скорость работы памяти. Поэтому, кроме банального увеличения частоты работы памяти, для увеличения ее пропускной способности часто используют другие приемы.