VMScluster

Материал из wikixw
Перейти к навигации Перейти к поиску

VMScluster, первоначально известный как VAXcluster, представляет собой компьютерный кластер, включающий группу компьютеров под управлением операционной системы OpenVMS. В то время как тесно связанные многопроцессорные системы запускают единственную копию операционной системы, VMScluster слабо связан: каждая машина запускает свою собственную копию OpenVMS, но дисковое хранилище, менеджер блокировок и домен безопасности являются общекластерными, обеспечивая единую абстракцию образа системы. Машины могут присоединяться или покидать VMScluster, не затрагивая остальную часть кластера. Для повышения доступности VMSclusters поддерживают использование двухпортовых дисков, подключенных к двум машинам или контроллерам хранения одновременно.

Первоначальный выпуск[править]

Digital Equipment Corporation (DEC) впервые анонсировала VAXclusters в мае 1983 года. На этом этапе кластеризация требовала специализированного коммуникационного оборудования, а также некоторых серьезных изменений в низкоуровневых подсистемах виртуальных машин. Программное и аппаратное обеспечение были разработаны совместно. Поддержка VAXcluster была впервые добавлена в VAX / VMS V4.0, который был выпущен в 1984 году. Эта версия поддерживала кластеризацию только через собственный компьютерный интерконнект DEC (CI).

В центре каждого кластера находился звездный ответвитель, к которому каждый узел (компьютер) и устройство хранения данных в кластере были подключены одной или двумя парами кабелей CI. Каждая пара кабелей имела скорость передачи 70 мегабит в секунду, высокую скорость для той эпохи. Использование двух пар давало совокупную скорость передачи 140 мегабит в секунду с резервированием на случай отказа одного кабеля; звездные соединители также имели резервную проводку для лучшей доступности.

Каждый кабель CI подключался к компьютеру через порт CI, который мог отправлять и получать пакеты без участия процессора. Чтобы отправить пакет, процессор должен был только создать небольшую структуру данных в памяти и добавить ее в очередь "отправить"; аналогично, порт CI добавлял бы каждое входящее сообщение в очередь "получить". Тесты показали, что VAX-11/780 может отправлять и получать 3000 сообщений в секунду, хотя номинально это была машина 1-MIPS. Близкородственный протокол Mass Storage Control Protocol (MSCP) обеспечивал столь же высокую производительность подсистемы mass storage. Кроме того, пакеты MSCP очень легко транспортировались через CI, позволяя удаленный доступ к устройствам хранения.

VAXclustering была первой кластерной системой, достигшей коммерческого успеха, и была основным пунктом продажи VAX systems.

Более поздние разработки[править]

В 1986 году DEC добавила поддержку VAXclustering к своим миникомпьютерам MicroVAX, работающим по Ethernet вместо специального оборудования. Несмотря на то, что эти локальные VAXclusters (LAVc) не давали преимуществ высокой доступности аппаратного обеспечения CI, они обеспечивали привлекательный путь расширения для покупателей недорогих миникомпьютеров. LAVc также позволил бездисковым спутниковым узлам загружаться по сети с помощью системного диска загрузочного узла.

Более поздние версии OpenVMS (V5.0 и более поздние) поддерживали "смешанные межсоединения" VAXclusters (используя как CI, так и Ethernet), а также VAXclustering через DSSI (Digital Systems and Storage Interconnect), SCSI и FDDI, среди других транспортов. В конце концов, когда стали доступны широкополосные сети с высокой пропускной способностью, кластеризация была расширена, чтобы обеспечить спутниковые каналы передачи данных и наземные линии связи на большие расстояния. Это позволило создать кластеры, устойчивые к стихийным бедствиям; размещая один VAXcluster в нескольких различных географических районах, кластер мог пережить сбои инфраструктуры и стихийные бедствия.

VAXclustering значительно помогло внедрение терминальных серверов, использующих протокол LAT. Позволяя обычным последовательным терминалам получать доступ к узлам хоста через Ethernet, любой терминал мог быстро и легко подключаться к любому узлу хоста. Это значительно упростило переход пользовательских терминалов с одного узла кластера на другой.

Поддержка кластеризации по TCP/IP была добавлена в OpenVMS версии 8.4, которая была выпущена в 2010 году. С появлением Gigabit Ethernet и 10 Gigabit Ethernet стандартных сетевых кабелей и карт вполне достаточно для поддержки VMSclustering.

Характеристики[править]

OpenVMS поддерживает до 96 узлов в одном кластере и допускает кластеры со смешанной архитектурой, где системы VAX и Alpha или Alpha и Itanium могут сосуществовать в одном кластере (различные организации продемонстрировали кластеры с тройной архитектурой и конфигурации кластеров до 150 узлов, но эти конфигурации не являютсяофициально поддерживается).

В отличие от многих других решений для кластеризации, VMScluster предлагает прозрачное и полностью распределенное чтение-запись с блокировкой на уровне записи, что означает, что к одному и тому же диску и даже к одному и тому же файлу могут обращаться сразу несколько узлов кластера; блокировка происходит только на уровне одной записи файла, что обычно происходит.быть одной строкой текста или одной записью в базе данных. Это позволяет строить высокодоступные многократно избыточные серверы баз данных.

Кластерные соединения могут охватывать более 500 миль (800 км), что позволяет узлам-членам располагаться в разных зданиях офисного кампуса или в разных городах.

Затенение томов на основе хоста позволяет затенять (зеркально отображать) тома (одного или разных размеров) на нескольких контроллерах и нескольких хостах, что позволяет создавать аварийно-устойчивые среды.

Полный доступ к распределенному менеджеру блокировок (DLM) доступен прикладным программистам, и это позволяет приложениям координировать произвольные ресурсы и действия на всех узлах кластера. Это включает в себя координацию на уровне файлов, но ресурсы, действия и операции, которые могут быть скоординированы с DLM, совершенно произвольны.

Благодаря поддерживаемой возможности прокатных обновлений и нескольким системным дискам конфигурации кластеров могут поддерживаться в режиме on-line и обновляться постепенно. Это позволяет конфигурациям кластера продолжать предоставлять доступ к приложениям и данным, в то время как подмножество узлов-членов обновляется до более новых версий программного обеспечения. Время безотказной работы кластера часто измеряется в годах, при этом текущее самое длительное время безотказной работы составляет не менее шестнадцати лет

Читать[править]

/vmssoftware.com/docs/VSI_OpenVMS_Cluster_Systems.pdf

См.также[править]

Пруф[править]

/web.archive.org/web/20120203204940/http://uptimes-project.org/hosts/os_breakdown_list/OpenVMSClust