- •Назначение, область применения и способы оценки производительности многопроцессорных вычислительных систем
- •Классификация архитектур по параллельной обработке данных
- •Гибридная архитектура (numa). Организация когерентности многоуровневой иерархической памяти
- •Организация когерентности многоуровневой иерархической памяти
- •Кластерная архитектура.
- •Кластерная архитектура. Проблемы выполнения сети связи процессоров в кластерной системе Кластерная архитектура
- •Сети связи процессоров в кластерной системе
- •Принципы построения коммуникационных сред на основе интерфейса sci
- •Принципы построения коммуникационных сред на основ среды Myrinet
- •Способы организации высокопроизводительных процессоров. Ассоциативные процессоры.
- •Ассоциативные процессоры
- •Способы организации высокопроизводительных процессоров. Конвейерные процессоры.
- •Конвейерные процессоры
- •Способы организации высокопроизводительных процессоров. Матричные процессоры
- •Матричные процессоры
- •Простые коммутаторы с временным разделением. Алгоритмы арбитража
- •Простые коммутаторы с временным разделением
- •Алгоритмы арбитража
- •П ростые коммутаторы с пространственным разделением. Особенности реализации шин
- •Особенности реализации шин
- •Составные коммутаторы. Коммутатор Клоза. Баньян-сети
- •Распределенные составные коммутаторы. Граф межмодульных связей Convex Exemplar spp1000.
- •Распределенные составные коммутаторы. Граф межмодульных связей мвс-100.
- •Распределенные составные коммутаторы. Граф межмодульных связей мвс-1000.
- •Требования к компонентам мвс. Отношение "стоимость / производительность".
- •Требования к компонентам мвс. Масштабируемость
- •Требования к компонентам мвс. Совместимость и мобильность программного обеспечения
- •Надежность и отказоустойчивость мвс.
- •Пути достижения параллелизма
- •Примеры параллельных вычислительных систем
- •Принципы разработки параллельных методов
- •Моделирование параллельных программ
- •Этапы разработки параллельных алгоритмов
- •1. Разделение вычислений на независимые части
- •2. Выделение информационных зависимостей
- •3. Масштабирование набора подзадач
- •4. Распределение подзадач между процессорами
- •Mpi: основные понятия и определения
- •Введение в разработку mpi программ. Инициализация и завершение mpi-программ. Операции передачи данных. Типы данных.
- •Коллективные операции передачи данных в mpi
- •Передача данных от одного процесса всем процессам программы
- •Передача данных от всех процессов одному процессу. Операция редукции
- •Обобщенная передача данных от одного процесса всем процессам
- •Обобщенная передача данных от всех процессов одному процессу
- •Общая характеристика среды выполнения mpi-программ
- •Понятие производного типа данных в mpi
- •Способы конструирования производных типов данных. Непрерывный способ конструирования
- •Непрерывный способ конструирования
- •Способы конструирования производных типов данных. Векторный способ конструирования
- •Векторный способ конструирования
- •Способы конструирования производных типов данных. Индексный способ конструирования
- •Индексный способ конструирования
- •Способы конструирования производных типов данных. Структурный способ конструирования
- •Структурный способ конструирования
- •Формирование сообщений при помощи упаковки и распаковки данных
Надежность и отказоустойчивость мвс.
Одной из основных проблем построения вычислительных систем остается задача обеспечения их продолжительного функционирования.
Важнейшей характеристикой вычислительных систем является надежность, т.е. работа системы без сбоев в определенных условиях в течение определенного времени. Повышение надежности основано на принципе предотвращения неисправностей путем снижения интенсивности отказов и сбоев за счет применения электронных схем и компонентов с высокой и сверхвысокой степенью интеграции, снижения уровня помех, облегченных режимов работы схем, обеспечения тепловых режимов их работы, а также за счет совершенствования методов сборки аппаратуры.
Понятие надежности включает не только аппаратные средства, но и программное обеспечение, которое используется, в частности, для анализа производительности систем и управления конфигурациями. Главной целью повышения надежности систем является целостность хранящихся в них данных. Единицей измерения надежности является среднее время наработки на отказ, иначе - среднее время безотказной работы.
Отказоустойчивость - это способность вычислительной системы продолжать действия, заданные программой, после возникновения неисправностей. Введение отказоустойчивости требует избыточного аппаратного и программного обеспечения. Направления, связанные с предотвращением неисправностей и с отказоустойчивостью, - основные для обеспечения надежности. Концепции параллельности и отказоустойчивости вычислительных систем естественным образом связаны между собой, поскольку в обоих случаях требуются дополнительные функциональные компоненты. Поэтому на параллельных вычислительных системах достигается как наиболее высокая производительность, так и, во многих случаях, очень высокая надежность. Имеющиеся ресурсы избыточности в параллельных системах могут гибко использоваться как для повышения производительности, так и для повышения надежности. Структура многопроцессорных и многомашинных систем приспособлена к автоматической реконфигурации и обеспечивает возможность продолжения работы системы после возникновения неисправностей.
Пути достижения параллелизма
В общем плане под параллельными вычислениями понимаются процессы обработки данных, в которых одновременно могут выполняться несколько операций компьютерной системы. Достижение параллелизма возможно только при выполнении следующих требований к архитектурным принципам построения вычислительной среды:
независимость функционирования отдельных устройств ЭВМ – данное требование относится в равной степени ко всем основным компонентам вычислительной системы: к устройствам ввода-вывода, обрабатывающим процессорам и устройствам памяти;
избыточность элементов вычислительной системы – организация избыточности может осуществляться в следующих основных формах:
- использование специализированных устройств;
- дублирование устройств ЭВМ путем использования.
Дополнительной формой обеспечения параллелизма может служить конвейерная реализация обрабатывающих устройств, при которой выполнение операций в устройствах представляется в виде исполнения последовательности составляющих операцию подкоманд. Как результат, при вычислениях на таких устройствах на разных стадиях обработки могут находиться одновременно несколько различных элементов данных.