3. Топологии кластеров и кластерных пар
При создании кластеров с большим количеством узлов могут применять- ся самые разнообразные топологии. Для наиболее распространенных «малых» кластеров, состоящих из 2 – 4 узлов, используются характерные для них топо-логии. К ним относится и топология кластерных пар, применяющаяся при ор-ганизации двух- или четырехузловых кластеров (рис. 12.3).
Рис. 12.3. Топология кластерных пар
Узлы группируются попарно. Дисковые массивы присоединяются к обоим узлам пары, причем каждый узел имеет доступ ко всем дисковым массивам своей пары. Один из узлов является резервным для другого.
Четырехузловая кластерная «пара» представляет собой простое расшире-ние двухузловой топологии. Обе кластерные пары с точки зрения администри-рования и настройки рассматриваются как единое целое.
Эта топология подходит для организации кластеров с высокой готовнос- тью данных, но отказоустойчивость реализуется только в пределах пары, так как принадлежащие ей устройства хранения информации не имеют физическо- го соединения с другой парой.
Пример: организация параллельной работы СУБД Informix XPS.
4. Топологии N + 1, N N и с полностью раздельным доступом
Топология N + 1 позволяет создавать кластеры из 2, 3 и 4 узлов (рис. 12.4).
Рис. 12.4. Топология N + 1
Каждый дисковый массив подключается только к двум узлам кластера. Дисковые массивы организованы по схеме RAID 1. Один сервер имеет соеди-нение со всеми дисковыми массивами и служит в качестве резервного для всех остальных узлов. Резервный сервер может использоваться для поддержания вы-сокой степени готовности в паре с любым из активных узлов.
Топология рекомендуется для организации кластеров высокой готовнос- ти. В тех конфигурациях, где имеется возможность выделить один узел для резервирования, эта топология способствует уменьшению нагрузки на актив- ные узлы и гарантирует, что нагрузка вышедшего из строя узла будет вос-произведена на резервном узле без потери производительности. Отказоустой-чивость обеспечивается между любым из основных узлов и резервным узлом. В то же время топология не позволяет реализовать глобальную отказоустой-чивость, поскольку основные узлы кластера и их системы хранения информа- ции не связаны друг с другом.
Аналогично топологии N + 1, топология N N (рис. 12.5) рассчитана на создание кластеров из 2, 3 и 4 узлов, но в отличие от первой обладает боль- шей гибкостью и масштабируемостью.
Рис. 12.5. Топология N N
Только в этой топологии все узлы кластера имеют доступ ко всем дис- ковым массивам, построенным по схеме RAID 1 с дублированием. Масштаби-руемость проявляется в простоте добавления к кластеру дополнительных узлов и дисковых массивов без изменения соединений в существующей системе.
Топология позволяет организовать каскадную систему отказоустойчивос- ти, при которой обработка переносится с неисправного узла на резервный, а в случае его выхода из строя – на следующий резервный узел и т.д. Кластеры с топологией N N обеспечивают поддержку приложения Oracle Parallel Server, требующего соединения всех узлов со всеми системами хранения информации. В целом топология характеризуется лучшей отказоустойчивостью и гибкостью по сравнению с другими решениями.
В топологии с полностью раздельным доступом (рис.12.6) каждый дис- ковый массив соединяется только с одним узлом кластера.
Рис. 12.6. Топология с полностью раздельным доступом
Топология рекомендуется только для тех приложений, для которых характерна архитектура полностью раздельного доступа, например для СУБД Informix XPS.