Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
оифтик 08-2012 готовый.docx
Скачиваний:
76
Добавлен:
11.05.2015
Размер:
7.45 Mб
Скачать
  1. В части Т-системы обеспечивается:

  2. − автоматическое динамическое распараллеливание программ, что освобождает программиста от большинства трудоемких аспектов разработки параллельных программ, свойственных различным системам ручного статического распараллеливания;

  3. − обнаружение готовых к выполнению фрагментов задачи (процессов);

  4. − их распределение по процессорам;

  5. − их синхронизация по данным.

  6. Все эти (и другие) операции выполняются в Т-системе автоматически и в динамике (во время выполнения задачи). Тем самым при более низких затратах на разработку параллельных программ обеспечивается более высокая их надежность.

  7. По сравнению с использованием распараллеливающих компиляторов Т-система обеспечивает более глубокий уровень параллелизма во время выполнения программы и более полное использование вычислительных ресурсов мультипроцессоров. Это связано с принципиальными алгоритмическими трудностями (алгоритмически неразрешимыми проблемами), не позволяющими во время компиляции (в статике) выполнить полный точный анализ и предсказать последующее поведение программы во время счета.

  8. Кроме указанных выше принципиальных преимуществ Т-системы перед известными сегодня методами организации параллельного счета в реализации Т-системы имеется ряд технологических находок, не имеющих аналогов в мире, в частности:

  9. реализация понятия "неготовое значение" и поддержка корректного выполнения некоторых операций над неготовыми значениями. Тем самым поддерживается возможность выполнение счета в некотором процессе-потребителе в условиях, когда часть из обрабатываемых им значений еще не готова, т.е. не вычислена в соответствующем процессе-поставщике. Данное техническое решение обеспечивает обнаружение более глубокого параллелизма в программе;

  10. – оригинальный алгоритм динамического автоматического распределения процессов по процессорам. Данный алгоритм учитывает особенности неоднородных распределенных вычислительных сетей. По сравнению с известными алгоритмами динамического автоматического распределения процессов по процессорам (например, с диффузионным алгоритмом и его модификациями) алгоритм Т-системы имеет существенно более низкий трафик межпроцессорных передач. Тем самым Т-система обеспечивает снижение накладных расходов на организацию параллельного счета и предъявляет менее жесткие требования к пропускной способности аппаратуры объединения процессорных элементов в кластер. В качестве языка программирования Т-системы используется расширение языка СИ новыми Т-конструкциями.

  11. Для организации взаимодействия вычислительных узлов суперкомпьютера в его составе используются различные сетевые (аппаратные и программные) средства, в совокупности образующие две системы передачи данных.

  12. Системная сеть кластера (СС) или System Area Network (SAN) объединяет узлы кластерного уровня в кластер. Данная сеть поддерживает масштабируемость кластерного уровня суперкомпьютера, а также пересылку и когерентность данных во всех вычислительных узлах кластерного уровня суперкомпьютера. Системная сеть кластера строится на основе специализированных высокоскоростных линков типа SCI, Myrinet, cLan, Infiniband и др., предназначенных для эффективной поддержки кластерных вычислений и соответствующей программной поддержки на уровне ОС Linux и систем организации параллельных вычислений (Т-система, MPI).

  13. Вспомогательная сеть суперкомпьютера (ВС) с протоколом TCP/IP объединяет узлы кластерного уровня в обычную (TCP/IP) локальную сеть (TCP/IP LAN). Данная сеть может быть реализована на основе широко используемых сетевых технологий класса Fast Ethernet, Gigabit Ethernet, ATM и др. Данная сеть предназначена для управления системой, подключения внешней дисковой памяти и рабочих мест пользователей, интеграции суперкомпьютера в локальную сеть предприятия и/или в глобальные сети. Кроме того, данный уровень может быть использован и системой организации параллельных кластерных вычислений (Т-система, MPI) для вспомогательных целей (основные потоки информации, возникающие при организации параллельных кластерных вычислений, передаются через системную сеть кластера).

  14. Примечание. В некоторых случаях аппаратура системной сети, например Myrinet, позволяет без ущерба для реализации кластерных вычислений поддержать на этой же аппаратуре реализацию сети TCP/IP. В этих случаях аппаратные части обеих сетей (SAN и TCP/IP LAN) могут быть совмещены.

  15. Кластерные конфигурации на базе только вспомогательной сети TCP/IP без использования дорогостоящих специализированных высокоскоростных линков класса SCI могут быть реализованы в рамках семейства "СКИФ" в виде самостоятельных изделий (TCP/IP кластеры). Программное обеспечение таких кластеров – ОС Linux, T-система и соответствующая реализация MPI. Реализация сравнительно недорогих TCP/IP кластеров на базе "масштабирования вниз" архитектурных решений "СКИФ" (дополнительный или вторичный эффект) существенно расширяет область применения результатов реализации программы.

  16. Иерархические кластерные конфигурации (метакластеры). Отдельные кластеры могут быть объединены в единую кластерную конфигурацию – кластер высшего уровня, или метакластер (Metacluster). Метакластерный принцип позволяет создавать распределенные метакластерные конфигурации на базе локальных или глобальных сетей передачи данных. При этом, естественно, уменьшается степень связности подкластеров метакластерной конфигурации.

  17. Системное программное обеспечение метакластера обеспечивает возможность реализации гетерогенных систем, включающих подкластеры различной архитектуры на различных программно-аппаратных платформах.

  18. Одним из перспективных программных продуктов, с использованием которого возможна реализация метакластерных конфигураций (по крайней мере простой топологии типа point-to-point) на подкластерах с различными программно-аппаратными платформами, является IMPI (Interoperable Message Passing Interface). IMPI реализует стандартизованный протокол, обеспечивающий взаимодействие различных реализаций MPI. Это позволяет выполнять общую задачу на различной аппаратуре с использованием настраиваемых поставщиком (vendor-tuned) различных реализаций MPI на каждом узле кластерной конфигурации соответствующего уровня иерархии. Такая возможность удобна в случаях, когда объем вычислений задачи слишком велик для одной системы или когда разные части задачи оптимальнее выполняются на разных реализациях MPI.

  19. IMPI определяет только протоколы, необходимые для взаимодействия различных реализаций MPI, а также может использовать собственные высокопроизводительные протоколы этих реализаций. Существуют свободно распространяемые (открытые) версии IMPI, например, на базе LAM/MPI.

  20. Преимущества и цели реализации иерархической (метакластерной) архитектуры.

  21. Реализация архитектурных принципов иерархической организации суперкомпьютерных метакластерных конфигураций позволила решить важнейшие для создания моделей семейства суперкомпьютеров "СКИФ" задачи:

  22. обеспечение реально достижимой и экономически эффективной масштабируемости архитектурных решений. Это особенно важно для решения ключевой задачи программы: создание моделей суперкомпьютеров, позволяющих перекрыть широкий диапазон производительности и областей применения – от моделей суперкомпьютеров среднего класса (10-100 ГФлопс) до вычислительных систем с массовым параллелизмом сверхвысокой производительности (триллионы операций в секунду);

  23. − создание единого информационного пространства участников программы, а в перспективе – объединение научных сетей России и Беларуси, на базе распределенных сетевых суперкомпьютерных метакластерных конфигураций;

  24. − обеспечение живучести суперкомпьютерных систем;

  25. − объединение суперкомпьютерных конфигураций с разными архитектурными и программно-аппаратными платформами (гибридная метакластерная архитектура) в единую метакластерную суперкомпьютерную систему;

  26. − создание глобальных сетевых конфигураций с гибридной метакластерной архитектурой терафлопового диапазона. Такие метакластеры были позже созданы путем объединения кластеров "СКИФ" с другими существующими в Республике Беларусь и Российской Федерации кластерными конфигурациями (например, в МГУ, Межведомственном суперкомпьютерном центре Минпромнауки Российской Федерации и РАН и др.).

  27. Для оптимизации организации на суперкомпьютерах "СКИФ" параллельного счета задач как с крупноблочным (явным статическим или скрытым динамическим) параллелизмом, так и с конвейерным или мелкозернистым явным параллелизмом, с большими потоками информации, требующими обработки в реальном режиме времени, концепция предусматривала возможность реализации универсальной двухуровневой архитектуры суперкомпьютеров (рисунок Б.1):

  28. − 1-й уровень – базовый (кластерный) архитектурный уровень;

  29. − 2-й уровень – потоковый архитектурный уровень, реализующий модель потоковых вычислений (data-flow).

  30. Концепция предусматривала реализацию потокового архитектурного уровня как на базе однородной вычислительной среды (ОВС) с использованием оригинальных СБИС ОВС, разрабатываемых в рамках Программы, так и на базе других (альтернативных) структурных и технических решений (например, на базе нейроструктур, программируемых логических схем (FPGA типа XILINX) и др.). По сути вычислительные модули потокового уровня являются сопроцессорами вычислительных

  31. Рисунок Б.1 –Универсальная двухуровневая архитектура

  32. ресурсов кластерной конфигурации.

  33. Предпосылкой объединения двух программно-аппаратных решений (кластерного и потокового) для организации параллельной обработки в рамках одной вычислительной системы является то, что эти два подхода, как уже отмечалось, своими сильными сторонами компенсируют недостатки друг друга. Тем самым, в общем случае, каждая прикладная проблема может быть разбита на:

  34. − фрагменты со сложной логикой вычисления, с крупноблочным (явным статическим или скрытым динамическим) параллелизмом, эффективно реализуемые на кластерном уровне с использованием Т-системы и других (классических) систем поддержки параллельных вычислений;

  35. − фрагменты с простой логикой вычисления, с конвейерным или мелкозернистым явным параллелизмом, с большими потоками информации, требующими обработки в реальном режиме времени, эффективно реализуемые на потоковом уровне.

  36. Рассмотренные архитектурные принципы создания суперкомпьютеров семейства «СКИФ» позволяли эффективно реализовать любые виды параллелизма. Архитектура является открытой и масштабируемой, т.е. не накладывает жестких ограничений к программно-аппаратной платформе узлов кластера, топологии вычислительной сети, конфигурации и диапазону производительности суперкомпьютеров. Вычислительные системы, создаваемые на базе основополагающих концептуальных архитектурных принципов, могли оптимально решать как классические вычислительные задачи математической физики и линейной алгебры, так и специализированные задачи обработки сигналов, моделирования задач управления сложными системами в реальном времени и другие приложения.

  37. Надо отметить, что в силу ряда причин работы по созданию потокового архитектурного уровня не были завершены. Поэтому в дальнейшем в данном пособии будут рассматриваться только результаты создания суперкомпьютеров кластерного уровня.

  38. Б.2. Результаты выполнения программы «СКИФ»

  39. В рамках программы «СКИФ» в Республике Беларусь в течение 2000-2004 гг. было разработано и изготовлено 6 типов суперкомпьютерных систем кластерного типа. Две старшие модели семейства «СКИФ»- «К-500» и «К-1000» были включены в список самых высокопроизводительных систем мира «TOP-500» (в 2003 г. и 2004 г. соответственно). Созданные модели суперкомпьютерных систем семейства «СКИФ» используются для решения задач, требующих высокопроизводительных вычислительных средств (в частности, автоматизации проектирования и моделирования, в метеорологии и др.).

  40. Основные характеристики суперкомпьютеров семейства «СКИФ», разработанных в 2000 – 2004 гг., приведены в таблице Б.1.

  41. Таблица Б.1.

    1. Модель

    1. Год

    2. разра-

    3. ботки

    1. Характеристики

    1. Пиковая производи-

    2. тельность,

    3. Гфлопс

    1. Реальная производи-

    2. тельность,

    3. Гфлопс

    1. Кол-

    2. во

    3. узлов

    1. Тип процес-

    2. сора

    1. Систем-

    2. ная сеть

    1. Вспомога-тельная сеть

    1. Первенец

    1. 2001

    1. 20

    1. 11

    1. 16

    1. Pen III-

    2. 600МГц

    1. SCI

    1. FastEthernet

    1. ВМ5100

    1. 2001

    1. 44,8

    1. 30,89

    1. 16

    1. Pen III-

    2. 1,4ГГц

    1. SCI

    1. FastEthernet

    1. Myrin

    1. 2002

    1. 78,4

    1. 51,88

    1. 7

    1. Xeon-

    2. 2,8 ГГц

    1. Myrinet

    1. Gigabit- Ethernet

    1. СКИФК-500

    1. 2003

    1. 716,8

    1. 475,3

    1. 64

    1. Xeon-

    2. 2,8 ГГц

    1. SCI

    1. Gigabit- Ethernet

    1. СКИФК-1000

    1. 2004

    1. 2534,4

    1. 2032

    1. 288

    1. Opteron

    2. 2,2 ГГц

    1. Infiniband

    1. Gigabit- Ethernet

  42. Все модели «СКИФ» характеризуются наличием высокоскоростной системной сети, предназначенной для связи между вычислительными узлами кластера при решении сложных задач, фрагменты которых выполняются на разных узлах. Вспомогательная сеть предназначена для управления и мониторинга запуска вычислительных задач и создания единого пространства для узлов кластера и управляющей машины.

  43. Основными задачами для разработчиков при создании суперкомпьютеров семейства «СКИФ» были: проектирование ЭВМ и разработка конструкторской и программной документации (КД и ПД) суперкомпьютеров, изготовление и проведение испытаний базовых конструктивно-вычислительных модулей (БКВМ) для построения различных моделей суперкомпьютеров семейства «СКИФ», разработка КД, изготовление и проведение испытаний моделей суперкомпьютеров семейства «СКИФ».

  44. Важнейшими техническими задачами при выполнении указанных выше работ было обеспечение удобств эксплуатации, устойчивости функционирования (надежности) в заданных условиях. Эти задачи имели особое значение при разработке старших моделей семейства «СКИФ» - «К-500» и «К-1000». В частности, для построения кластера «К-500» были разработаны и изготовлены новые модификации базовых конструктивных модулей высотой 22U (U=44,45 мм), в которых установлены вычислительные узлы, коммутаторы управляющей сети типа Gigabit Ethernet, система охлаждения, источники бесперебойного питания и другие технические средства. В кластере «К-500» реализована принципиально отличающаяся от разработанных в 2000 – 2002 гг. образцах кластеров система охлаждения, как по конструктивному размещению, так и по организации управления системой охлаждения в зависимости от изменения температуры внутри конструктивных модулей.

  45. Еще одной особенностью кластера «К-500» является система удаленного администрирования, поддержки и обслуживания, обеспечивающая удаленное и автоматическое выполнение таких операций, как:

  46. - включение / отключение питания вычислительных узлов;

  47. - аппаратный сброс узла;

  48. - взаимодействие с узлом в консольном режиме (управление режимом загрузки, работа с отладчиком ядра операционной системы, сбор сообщений из ядра системы и др.).

  49. Создание кластера «К-500» являлось качественно новым результатом в рамках программы «СКИФ», который позволил вплотную приблизиться к терафлопному диапазону производительности и подготовить задел к созданию в 2004 г. суперкомпьютера с массовым параллелизмом сверхвысокой производительности (триллионы операций в секунду).

  50. В 2004 г. программа «СКИФ» была завершена разработкой суперкомпьютера терафлопного диапазона «СКИФ К-1000».

  51. Для кластера «К-1000» была произведена доработка конструктивных модулей высотой 22U, разработанных для кластера «К-500», в части усиления системы воздушного охлаждения и обеспечения более удобного монтажа (общее количество кабелей системной и управляющей сетей в кластере «К-1000»! – 900, суммарная длина связей ~ 2500 м).

  52. Разработанная на суперкомпьютеры «СКИФ» конструкторская документация рассчитана на серийное производство и позволяет изготавливать и поставлять прикладные комплексы на базе кластерных конфигураций «СКИФ» в широком диапазоне производительности с использованием готовых изделий массового применения, широко представленных на компьютерном рынке (микропроцессоров, системных плат, сетевых средств, дисковых устройств и др.).

  53. Результаты комплексной реализации программы «СКИФ» позволили выйти Республике Беларусь на собственный путь развития конкурентоспособной высокопроизводительной техники, уровень которой соответствует прогнозируемым требованиям со стороны широкой категории пользователей.

  54. Дальнейшие работы по созданию высокопроизводительных вычислительных систем проводились в рамках программы Союзного государства «Развитие и внедрение в государствах-участниках Союзного государства наукоемких компьютерных технологий на базе мультипроцессорных вычислительных систем» (программы «Триада»), рассчитанной на 2005-2008 гг. Одним из направлений работ по этой программе было исследование и разработка семейства типовых высокопроизводительных персональных аппаратно-программных вычислительных комплексов с параллельной архитектурой (персональных кластеров).

  55. Модели персональных кластеров – это небольшие экономичные многофункциональные вычислительные комплексы с модульной кластерной архитектурой. Они не требуют создания специальных условий во время эксплуатации. Персональные кластеры как бы приносят суперкомпьютерную вычислительную мощность непосредственно на рабочий стол, избавляя пользователя от различных сложностей, связанных с доступом к традиционным суперкомпьютерным ресурсам коллективного пользования. Модели кластеров семейства «СКИФ-Триада» - это, по сути, персональные компьютеры (ПК) с параллельной архитектурой. С ними можно просто работать и управлять процессами, как и с обычными ПК. Персональные кластеры «СКИФ-Триада» должны оптимально подходить для проведения сложных научных расчетов и моделирования, решения инженерных вычислительных задач и обучения приемам программирования с применением технологий параллельных вычислений. Эти кластеры представляют принципиально новый класс компьютерной техники – персональные недорогие «настольные суперкомпьютеры», которые можно подключать к обычной электрической розетке. Адресной аудиторией «персональных суперкомпьютеров» являются академические и научные общества, большие корпорации, учебные заведения и предприятия. Персональные кластеры позволяют пользователям адаптироваться к переходу на вычислительную технику с параллельной архитектурой, которая изменяет весь привычный стиль взаимодействия с компьютерами.

  56. Персональный суперкомпьютер предназначен для самостоятельного выполнения научных расчетов, автоматизированного проектирования, обработки больших массивов данных и т.д., так и в качестве дополнения к мощным высокопроизводительным кластерным системам, для разработки программ, подготовки данных и проведения предварительных расчетов. Персональные кластеры позволяют разрабатывать методику применения параллельных вычислений для тех или иных прикладных задач, которые можно легко переносить на более высокопроизводительные кластеры, включая суперкомпьютерные конфигурации «СКИФ».

  57. Персональные кластеры «СКИФ-Триада» были созданы на основе 64-разрядных многоядерных процессоров, обеспечивающих пиковую производительность до 400 Гфлопс, имеют кластерную архитектуру, функционируют под управлением ОС Linux и Windows Computer Cluster Server 2003, используют в качестве среды параллельного программирования систему передачи сообщений MP1, языки программирования C/C++, Fortran.

  58. Персональные кластеры «СКИФ-Триада» предназначены для проведения сложных высокопроизводительных научных и инженерных расчетов и моделирования, могут использоваться в качестве отказоустойчивых Web-серверов, почтовых серверов, серверов баз данных и в других приложениях. Персональные кластеры «СКИФ-Триада» заполняют нишу, разделяющую обычные ПК и суперкомпьютеры, обеспечивая возможность использования суперкомпьютерных технологий в отдельной организации, подразделении, а также непосредственно на рабочем месте для персональных вычислений.

  59. Модели семейства персональных кластеров «СКИФ-Триада» предназначены для обработки открытой информации. При наличии конкретного потребителя возможно создание модификаций персональных кластеров, предназначенных для обработки закрытой информации и имеющих средства защиты от несанкционированного доступа (НСД) к хранимой и обрабатываемой информации, включая средства защиты от YCL за счет побочных электромагнитных излучений.

  60. В процессе реализации программы «Триада» в 2006-2008 годах в РБ разработаны комплекты рабочей конструкторской документации и изготовлены опытные образцы трех базовых моделей персональных кластеров «СКИФ-Триада» в конструктивах типа Tower и стойка (Rack), проведены испытания этих образцов. Создан также образец базового конструктивно-вычислительного модуля для отработки принципов создания персональных кластеров на базе blade-технологий.

  61. Базовые модели персональных кластеров семейства «СКИФ-Триада» являются, по сути, типовыми вычислительными конфигурациями, на основе которых в соответствии с требованиями создаются конкретные модификации соответствующих базовых моделей.

  62. Отметим, что разработанные модели персональных кластеров использованы для решения конкретных задач (таблица Б.2.).

  63. Таблица Б.2.

    1. Год изго-товления

    1. Модель кластера

    1. Организация- потребитель

    1. Использование

    1. 2007

    1. Модель 1 персонального кластера

    1. ОИПИ НАН Беларуси

    1. Используется в качестве высокопроизводительного вычислительного устройства в аппаратно-программном комплексе слежения в реальном масштабе времени за движущимися объектами

    1. 2007

    1. Модель 2 персонального кластера

    1. Противотуберку-лезный диспансер

    2. г. Минска, ОИПИ НАН Беларуси

    1. Используется в качестве высокопроизводительного вычислительного устройства в распределенной телемедицинской системе (ТМС) реального времени по цифровой флюорографии. К кластеру подключены 16 городских поликлиник, объединенных в единую корпоративную телекоммуникационную сеть

    1. 2007

    1. Модель 2 персонального кластера

    1. РУПП «БелАЗ»

    1. Предназначен для использования в корпоративной вычислительной системе CALS BELAZ

    1. 2008

    1. Модель 2 персонального кластера

    1. ОИПИ НАН Беларуси

    1. Используется в качестве высокопроизводительного вычислительного устройства для проведения персональных научных и инженерных расчетов и моделирования

    1. 2008

    1. Модель 2 персонального кластера

    1. Полоцкий государственный университет

    1. Используется в качестве высокопроизводительного вычислительного устройства для проведения персональных научных и инженерных расчетов и моделирования

    1. 2008

    1. Модель 3 персонального кластера

    1. ОИПИ НАН Беларуси

    1. Используется в системе gLite сайта «BY-UIIP» грид-сегмента Baltic-grid общеевропейской грид-сети «проекта EGEE»

  64. В марте 2007 г. была утверждена новая программа Союзного государства «Разработка и использование программно-аппаратных средств Грид-технологий перспективных высокопроизводительных (суперкомпьютерных) вычислительных систем семейства «СКИФ» (шифр «СКИФ-ГРИД»). Программа была рассчитана на 4 года (т.е. до 2010 г.), в которой предусмотрено участие РБ в части разработки, изготовления и проведения испытаний базовых модулей и конфигураций суперкомпьютерных систем «СКИФ» Ряда 3 и Ряда 4.

  65. Прежде чем рассматривать результаты работ по программе «СКИФ-Грид», напомним, что ГРИД – это географически распределенная инфраструктура, объединяющая множество ресурсов разных типов (процессоры, долговременная и оперативная память, хранилища и базы данных, сети), доступ к которым пользователь может получить из любой точки, независимо от места их расположения.

  66. В рамках программы Союзного государства «СКИФ-Грид» в Республике Беларусь были разработаны модели суперкомпьютеров с классической кластерной конфигурацией – «СКИФ К-1000М» и позже на ее основе –2 образца суперкомпьютеров «СКИФ К-1000М.05», а также модели кластерных конфигураций с применением специализированных процессоров (т.е. кластеров с гибридной архитектурой): «СКИФ-ОИПИ» (2208-2009 гг.), «СКИФ-GPU» и «СКИФ-Грид» (2010 г.). Был разработан также образец кластера с системой охлаждения с использованием тепловых трубок.

  67. В суперкомпьютере «СКИФ-ОИПИ» использованы спецпроцессоры на базе Cell-технологий, а в суперкомпьютерах «СКИФ-GPU» и «СКИФ-Грид» - современные графические процессоры или GPU (Graphic Processing Unit), которые эффективно обрабатывают и реалистично отражают компьютерную графику. Непрерывное совершенствование возможностей видеокарт и графических процессоров привело к тому, что современные графические процессоры ряд сложных математических задач могут решать на порядок быстрее процессоров с классической архитектурой. В частности, считается, что графические процессоры обладают огромными возможностями для проведения научных исследований, в особенности при решении задач, требующих больших объемов операций с плавающей точкой в сочетании с минимальными потребностями в коммуникациях. Применение GPU для высокопроизводительных вычислений эффективны также для решения задач в молекулярной биологии и диагностической медицине, при моделировании океанических течений и процессов образования галактик и т.п. Появились уже и соответствующие программные средства, в частности, языки программирования, позволяющие эффективно использовать вычислительные возможности GPU.

  68. Одной из основных характеристик суперкомпьютеров является теоретическая пиковая производительность, которая определяется следующим образом:

  69. П=f · N · M · K · n,

  70. где П – пиковая производительность (Гфлопс);

  71. f– тактовая частота микропроцессоров (ГГц);

  72. Nколичество вычислительных узлов (ВУ);

  73. Mколичество микропроцессоров в ВУ;

  74. Kколичество ядер в микропроцессоре;

  75. nколичество операций с плавающей точкой (ПТ), выполняемых за один такт.

  76. Так, например, для ВУ, применяемого для построения кластера «СКИФ-Грид», у которого параметры, применяемые для оценки пиковой производительности, составляют:

  77. f=2,2ГГц, N = 1, M = 2, К = 12 и n =4, теоретическая пиковая производительность равна 211,2 Гфлопс.

  78. Пиковая производительность графических ускорителей зависит от точности выполняемых операций (с одинарной или двойной точностью) и определяется при помощи специальных программных средств.

  79. Некоторые технические данные кластерных систем, разработанных по программе «СКИФ-Грид», приведены в таблице Б.3.

  80. Таблица Б.3.

    1. Наименование модели

    1. Кол-во вычисли- тельных узлов (N)

    1. Тип микро- процессора,

    2. характеристики

    1. Тип спец- процессора

    1. Пиковая производительность при выполнении операций (Гфлопс)

    1. с одинарной точностью

    1. с двойной точностью

    1. без спец. проц.

    1. со спец. проц.

    1. без спец. проц.

    1. со спец. проц.

    1. СКИФ-ОИПИ

    1. NBL = 53

    2. NCell = 8

    1. Intel Xeon

    2. f = 3 ГГц

    3. K = 8

    4. M = 2

    1. CPU Power Cell 8i

    2. f = 3,2 ГГц

    1. -

    1. 8368,0

    1. 5088,0

    1. -

    1. СКИФ-GPU

    1. N = 36

    1. Intel Xeon

    2. 64 разряда

    3. f = 2,93 ГГц

    4. K = 4

    5. M = 2

    1. GPU

    1. -

    1. 65626,0

    1. 3375,0

    1. 8375,4

    1. СКИФ-Грид

    1. N = 38

    1. AMD Opteron

    2. 64 разряда

    3. f = 2,2 ГГц

    4. K = 12

    5. M = 2

    1. GPU

    1. -

    1. 24057,6

    1. 8025,6

    1. 11717,6

    1. СКИФ-ПСК

    1. N = 11

    1. Intel Xeon

    2. f = 2,26 ГГц

    3. K = 6

    4. M = 2

    1. -

    1. -

    1. -

    1. 1193,3

    1. -

  81. На базе разработанных по программе «СКИФ-Грид» суперкомпьютеров был создан СКИФ-полигон - вычислительная сеть, построенная по технологии ГРИД. Созданная совместными усилиями инфраструктура открывает новые возможности для специалистов из сферы науки и промышленности. Она позволяет им работать с большими массивами вычислений, получать доступ к международным банкам данных, моделировать сложные природные и технологические процессы. Грид-сеть работает по принципу распределенной сети, участники которой могут использовать мощности суперкомпьютеров, при этом территориально их могут разделять многие километры. Подобная технология очень выгодна, поскольку позволяет предприятиям и организациям не тратиться на покупку мощных суперкомпьютеров, а подключаться к ним дистанционно, как бы «арендуя» вычислительную мощность. При этом национальная Грид-инфраструктура Беларуси интегрирована в единое киберпространство не только с Россией, но и с Европой.

  82. К национальному сегменту Грид-сети уже присоединилось ряд институтов НАН Беларуси, Министерства здравоохранения и ВУЗов. Свои конструкторские бюро к нему подключили Минский завод колесных тягачей, Минский моторный завод и Гродненский завод карданных валов. Для промышленников сотрудничество с Грид-сетью особенно важно.

  83. Создание и совершенствование собственной высокотехнологичной вычислительной инфраструктуры для Беларуси видится одним из важнейших элементов ее дальнейшего экономического развития. Во всяком случае, в области инноваций сегодня без нее трудно будет обойтись. Но сами по себе высокие вычислительные мощности не создают инновационную продукцию. В Беларуси пока наблюдается дефицит профессиональных многодисциплинарных коллективов, которые могли бы поставить амбициозные задачи и суметь их на достойном уровне выполнить. Причина этого заключается в том, что в белорусской системе высшего образования практически отсутствует подготовка кадров программистов-прикладников, которые должны были обучаться тому, как использовать современные информационные технологии и прикладные программные средства для проведения виртуальных испытаний, моделирования процессов и т.д.

  84. В этом направлении в ряде ВУЗов (БГУ, БГУИР, БНТУ, ГрГУ) начали работать лишь недавно, после подключения к СКИФ-полигону.

  85. Самой главной проблемой, сдерживающей развитие суперкомпьютерных и Грид-технологий, является отсутствие в Беларуси четкой стратегии этого развития. Все работы по созданию суперкомпьютеров семейства «СКИФ» выполнялись целиком и полностью в рамках программ Союзного государства, собственной же национальной программы в этом направлении в Беларуси нет. Такие национальные программы имеются в странах Евросоюза и России, и именно в них предусмотрены такие направления, как подготовка кадров, содержание, обслуживание инфраструктуры и др.

  86. Программа «СКИФ-Грид» закончила свое действие в 2010 г. На смену ей придут программы «СКИФ-Союз» и «СКИФ-Недра». Первая направлена на дальнейшее развитие единой киберинфраструктуры Союзного государства, включающее в себя создание новых СКИФов 5-го и 6-го поколений.

  87. Вторая предполагает использование суперкомпьютерных технологий для поиска и разведки полезных ископаемых (в частности, углеводородного сырья) как в Беларуси, так и в России.

  88. Литература

  89. 1.Аладьев В.З., Хунт Ю.А., Шишаков М.Л. Основы информатики. – М.: Филинъ, 1999.

  90. 2. Бройдо В.Л., Ильина О.П. Архитектура ЭВМ и систем. Учебник для ВУЗов. 2-е издание. СПб, Питер, 2009.

  91. 3. Головкин Б.А. Параллельные вычислительные системы. – М.: Наука, 1980.

  92. 4. Голенков В.В. и др. Представление и обработка знаний в графодинамических ассоциативных машинах. – Мн.: БГУИР, 2001.

  93. 5. Голенков В.В. и др. Семантическая модель сложно структурированных баз данных и баз знаний: Учебное пособие. – Мн.: БГУИР, 2004.

  94. 6. Заморин А.П. Этапы эволюции ЭВМ. – М.: Знание, 1987.

  95. 7. Каган Б.М. Электронные вычислительные машины и системы. – М.: Энергия, 1999.

  96. 8. Корнеев В.В. Параллельные вычислительные системы. – М.: Нолидж, 1999.

  97. 9. Лысиков Б.Г. Арифметические и логические основы цифровых автоматов: Учебник для вузов. – Мн.: Выш. шк., 1980.

  98. 10. Майерс Г. Архитектура современных ЭВМ: В 2 кн./ Пер. с англ.; Под ред. Потоцкого В.К. – М.: Мир, 1985.

  99. 11. Майоров С.А., Новиков Г.И., Структура электронных вычислительных машин. – Л.: Машиностроение, 1979.

  100. 12. Организация и функционирование традиционных и интеллектуальных компьютеров: Учебное пособие. /В.П. Качков, И.Я. Доморадов.Под научной редакцией проф. В.В. Голенкова. Мн.: БГУИР, 2006.

  101. 13. Перспективы развития вычислительной техники: Справ.пособие в 11 кн. Кн.2. /Под ред. Ю.М. Смирнова. – М.: Высш. шк., 1989.

  102. 14. Перспективы развития вычислительной техники: Справ.пособие в 11 кн. Кн.3. /Под ред. Ю.М. Смирнова.– М.: Высш. шк., 1989.

  103. 15. Сименс Дж. ЭВМ пятого поколения. Компьютеры 90-х годов. – М.: Финансы и статистика, 1986.

  104. 16. Таненбаум Э. Архитектура компьютера. – СПб: Питер, 2002.

  105. 17. Трахтенброт В.А. Алгоритмы и вычислительные автоматы. М.:Советское радио, 1974

  106. 18. Фути К., Судзуки Н. Языки программирования и схемотехника СБИС: Пер. с япон. – М.: Мир, 1988.

  107. 19. Хамахер К., Вранешич Э., Заки С. Организация ЭВМ. – СПб: Питер, 2004.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]