Project

General

Profile

ОБЗОР

OVERVIEW | INSTALL | OPERATIONS | LICENSE
ОБЗОР | УСТАНОВКА | WEB-КОНСОЛЬ | ОПЕРАЦИИ | ЛИЦЕНЗИЯ

Зеркало серверов SkyCover - средство для развертывания кластера виртуальных
серверов высокой надежности на любом оборудовании.

Зеркало SkyCover разрабатывается и поддерживается российской компанией SkyCover Company.

ВВЕДЕНИЕ

Linux имеет встроенную подсистему DRBD для создания зеркальных дисковых устройств по сети.
Протокол DRBD позволяет синхронно дублировать запись на жесткий диск сразу на два сервера
и обеспечивает высокую отказоустойчивость дисковой системы.

В сочетании со средствами виртуализации, такими как XEN, это позволяет объединить несколько
компьютеров - "узлов", каждый со своей дисковой емкостью и создать на них кластерную среду.
Каждая виртуальная машина в кластерной среде будет запущена на одном узле и зарезервирована
на втором в режиме он-лайн синхронизации диска.

В случае аварии перезапуск на резервном сервере производится за считаные минуты и, что особенно
важно, дисковые данные не теряются - поэтому безопасное переключение будет безопасным в любой
момент!

За счет синхронного режима, DRBD позволяет резервировать, в том числе, и базы данных, что выгодно
отличает технологию от конкурентов.

Такая конструкция позволяет из любого оборудования, взятого парой, создать серверную систему
с очень высоким уровнем надежности, который устроить большинство запросов современного бизнеса.

Обслуживание технологии XEN/DRBD очень трудоемко и для упрощения этого процесса компания Google
создала систему управления виртуализацией Ganeti (http://code.google.com/p/ganeti/), которая обслуживает,
в частности, ферму DNS-серверов Google.

Ganeti также может управлять "обычными", отдельными виртуальными машинами.

Зеркало SkyCover

Зеркало SkyCover использует Debian/GNU Linux, технологии XEN+DRBD и систему Ganeti (в настоящий
момент - внутренний форк) и позволяет легко развернуть кластер, который будет сразу готов к промышленной
эксплуатации.

Чем Зеркало SkyCover отличается от просто XEN+DRBD?

Зеркало SkyCover использует Ganeti - систему управления кластерами XEN+DRBD, которая управляет
  • созданием виртуальных машин с необходимым количеством синхронизирующихся дисков
  • увеличением размеров синхронизирующихся дисков
  • воссозданием дисковых томов и синхронизацией на ведомом узле
  • живой миграцией
    Всё это делается в автоматическом режиме (а значит, исключая человеческие ошибки).

Чем Зеркало SkyCover отличается от просто Debian + Ganeti?

Ganeti - это просто система управления виртуальными машинами и технологией XEN+DRBD.
Это уже немало, но Зеркало SkyCover даёт возможности, без которых промышленное использование этого решения
было бы невозможно.

Ключевые особенности Зеркала SkyCove

  • общая методология построения кластера из серверов, единые способы увязки его компонентов
  • система инициализации новых узлов, гарантирующая единообразие настроек
  • система установки, дающая готовый к эксплуатации кластер
  • настройка XEN, DRBD, дисковой и сетевой подсистемы и других компонентов для промышленных нагрузок - SkyCover
    содержит десятки таких настроек в готовом виде
  • графический WEB-интерфейс управления на русском и английском языках
  • система auto failover для преодоления сбоев без участия оператора
Прочие возможности
  • автоматизация установки ВМ Debian Squeeze, Wheezy, Jessie; Ubuntu Trusty, Precise; CentOS 6, 7
  • дополнения для удобного развертывания Windows и Solaris, поддержка gnt-backup
  • средства диагностики XEN и интеллектуального регулирования активности DRBD
  • соблюдение зависимостей при запуске виртуальных машин
  • готовая сетевая инфраструктура для виртуальной среды - DNS, DHCP, Approx, Puppet

С программным обеспечением Зеркала SkyCover вы, с минимумом трудозатрат, получаете
привычную систему Debian/GNU Linux, настроенную в виде комплексной кластерной платформы.

СОСТАВ

Базовая платформа Зеркала SkyCover состоит из двух узлов Ganeti и одной служебной
виртуальной машины
(ВМ), названной sci.

Служебная ВМ предоставляет:
  • DNS для локальных зон, форвардеры и хинт-зону (BIND9 chrooted),
  • DHCP сервер для локальной сети(по умолчанию отключен),
  • Управление конфигурациями, с возможностью автоматической настройки
    новых узлов и ВМ (Puppet),
  • Apt-proxy, с аплинком к зеркалам Debian, а также с локальным репозиторием,
    скопированным с инсталляционного SCI-CD CD-ROM (Approx).

После установки возможно создавать новые виртуальные машины любого назначения
и управлять ими с помощью графического интерфейса SkyCover или команд Ganeti.

ЖЕЛЕЗО

Минимальная аппаратная основа SCI состоит из двух узлов, которыми могут быть
два любых компьютера - от широко известных брендов, таких как HP, IBM,
"Китайских брендов", как SuperMicro или самосборных серверов или даже
персональных компьютеров.

Конечно, производительность вашей системы будет сильно зависеть от железа,
которое вы выберете - процессор, память, RAID-система - все компоненты имеют
свое обычное значение для производительности, а на надежность кластерной
системы они существенного влияния не окажут.

Возможности высокой надежности обеспечиваются наличием двух отдельных узлов
с индивидуальными дисковыми подсистемами и он-лайн синхронизацией между ними.
В большинстве случаев этот уровень избыточности достаточен для защиты от
потери данных и значимых перерывов в обслуживании даже с дешевыми аппаратными
компонентами.

Конечно, при планировании систем, которые не могут быть остановлены даже на
несколько минут, должен применяться индивидуальный подход.

ЛОКАЛЬНАЯ СЕТЬ

Все узлы должны находиться в одном общем сегменте сети TCP/IP, подключенном
через основной интерфейс (возможны исключения - см. документацию Ganeti).

Установка SCI поддерживает 802.1q VLAN тэггинг, так что вы легко можете давать
вашим узлам и ВМ интерфейсы в разных сегментах сети (требуется сетевой
коммутатор с поддержкой 802.1q).

СЕТЬ ДАННЫХ

Узлы должны быть объединены быстрым TCP/IP соединением для передачи дисковых
данных (синхронизация DRBD). Рекомендуется сеть 1GigE.

Возможно (и рекомендуется) чтобы сеть данных была отделена от основного TCP/IP
интерфейса. Другими словами, узел должен иметь два сетевых адаптера, как минимум
один из которых должен поддерживать 1GigE.

Для всего лишь двух узлов сеть данных может быть построена без сетевого
коммутатора, с использованием простого кабеля категории 5e.

Для простых и демонстрационных целей возможно использование всего одного сетевого
адаптера на узле, но обязательно с поддержкой скорости 1Гбит/с.

СЕТЬ ИНТЕРНЕТ

Для доступа к Интернет вы должны подключить ваш локальный сегмент сети к Интернет -
роутеру.

Наиболее простой способ - это использовать отдельный роутер с функцией NAT.

Более продвинутый способ - это построить роутер/брандмауэр на виртуальной машине
кластера.

РЕПОЗИТОРИИ DEBIAN

Служебная ВМ предоставляет apt-прокси "approx" для кэширования пакетов Debian, который может быть подключен к
обычным зеркалам Debian или к внутренним зеркалам/прокси.

В любом случае, в "approx" на служебной ВМ загружена копия репозитория со SCI-CD
ISO. Его можно использовать даже в отсутствие подключения к Интернет.

Стандартный список репозиториев автоматически доставляется на системы с запущенным
puppet-клиентом (по умолчанию - все узлы и ВМ).

УСТАНОВКА

Для инструкций читайте раздел УСТАНОВКА.

cluster-sync-tr.png (111 KB) Dmitry Chernyak, 09/03/2019 06:43 PM