Проект

Общее

Профиль

УСТАНОВКА » История » Версия 28

Версия 27 (Dmitry Chernyak, 19.06.2016 20:30) → Версия 28/90 (Dmitry Chernyak, 19.06.2016 20:31)

h1. Установка

{{toc}}

[[OVERVIEW]] | [[INSTALL]] | [[BUILD-ISO]] | [[SETUP]] | [[OPERATIONS]] | [[GITMAGIC]] | [[LICENSE]] | [[STATUS]]
на Русском: [[ОБЗОР]] | [[СБОРКА-ISO]] | [[УСТАНОВКА]] | [[НАСТРОЙКА]] | [[ОПЕРАЦИИ]] | [[МАГИЯ GIT]] | [[ЛИЦЕНЗИЯ]] | [[СОСТОЯНИЕ]]

h2. Загрузка ISO-образа

Ссылка ISO-образ, готовый для использования находится в разделе "Документы":https://sci.skycover.ru/projects/sci-cd/documents (для доступа к разделу необходимо зарегистрироваться на этом сайте).

Вы можете собрать свой собственный ISO-образ из исходников (для продвинутых пользователей): [[Сборка-ISO]]

h2. Запись ISO-образа на диск

ISO-образ можно записать используя пишущий cd-rom и любую программу для записи образов на диски.

h2. Запись ISO на флешку

ISO-образ можно записать на флешку, используя любую предназначенную для этого утилиту, например, unetbootin. Для этого программе в типе системы надо выбрать Debian нужной версии и указать путь к ISO.

Также можно записать ISO образ напрямую на флешку:

<pre>
dd if=/путь/к/iso of=/dev/sdX bs=4k
</pre>
Где /dev/sdX - путь к файлу блочного устройства, ссылающегося на Вашу флешку (понять это можно, вставив флешку и запустив dmesg - в конце будет информация о подключенной флешке).

h2. Планирование топологии

Система устанавливается на два узла (вы можете использовать только один узел, но опции отказоустойчивости не будут доступны - получится обычная система виртуализации).
После начальной инициализации кластера вы сможете добавить в него и дополнительные узлы.

Узлы должны быть соединены между собой по сети на скорости 1Гбит.
Мы рекомендуем использовать 2 сетевые карты:
* одну, с поддержкой 1Гбит Ethernet использовать для объединения узлов внутренней сетью (интерлинком). Можно использовать патч-корд категории 5e.
* вторую подключить к комутатору локальной сети.

Можно использовать третью сетевую карту для подключения к Internet.
Подробнее о вариантах топологии для разных предприятий написано на странице [[Планирование топологии]].

h2. Минимальные системные требования

При реальном внедрении следует подбирать характеристики железа под конкретные задачи.
Для тестовых применений минимальные требования:
* 1GB RAM
* 50GB HDD
* 1Gbit ethernet для DRBD линка(в случае, если узлов > 1)
* Поддержка аппаратной виртуализации(в случае, если планируется использовать HVM режим)

h2. Установка системы

На данный момент вы должны подготовить следующую информацию по поводу будущей установки:
* Адрес и маску локальной сети для обоих узлов
* Доменные имена для обоих узлов
* IP адрес кластера (это дополнительный адрес, который будет автоматически присваиваться главному узлу, он может быть в любой подсети, доступной всем узлам).
* Доменное имя кластера
* Адрес шлюза по умолчанию (в локальной сети).
* Адрес будущего DNS-сервера для кластера (на интерлинке), который будет установлен в сервисной виртуальной машине
(адрес не должен совпадать с адресом уже существующих узлов!)
Подробнее про настройку сети можно прочитать здесь:
https://sci.skycover.ru/projects/sci-cd/wiki/НАСТРОЙКА#Настройка-сети
* Пароль пользователя root
* Понимание того, как будет устроена дисковая система - использование sofware RAID или hardware RAID, или вообще без RAID (не рекомендуется).

h3. Разметка жестких дисков

Инсталлятор автоматически размечает дисковую систему следующим образом (при использовании ручной разметки следует придерживаться той же схемы):
|_.Раздел|_.Точка монтирования|_.Размер|_.Назначение|
|1 (или md0)|/|10G|корневой раздел для хранения системных данных ноды|
|2 (или md1)|swap|1G|Раздел подкачки для Dom0 из расчета 512Mb RAM|
|3 (или md2)|LVM xenvg|остальное|LVM группа 'xenvg'|
|xenvg/system-stuff|/stuff|20G|виртуальный том для хранения дистрибутивов и образов бэкапов виртуальных машин|

На LVM группе "xenvg" будет выделяться место для создания томов виртуальных машин.
Также на ней располагается раздел "system-stuff", который монтируется в систему как /stuff.
На нем следует хранить большие файлы наподобие установочных образов для виртуальных машин, резервные копии и тд.

Если вы хотите разместить другие разделы на xenvg, их нужно называть "system-*", потому что ganeti в этом дистрибутиве уже настроен на игнорирование таких имен (см. [[НАСТРОЙКА]]).

Инсталлятор предоставляет следующие типы автоматической разметки:
# *1 disk with lvm* - размечается 1 диск, на нем будет и корень и своп, и lvm - годится для случаев, когда диск 1(не рекомендуется для промышленных
применений), а также если используется аппаратный рейд.
# *1 disk with deferred lvm* - размечается 1 диск, на нем будет корень и своп, а lvm настраивается после установки, с помощью команды sci-setup vg.
Служит для случаев, когда в системе имеется 1 диск(или hwraid массив) под корень и своп и 1 диск/hwraid под lvm.
# *2 disk with lvm* - размечаются 2 диска, создаются mdadm raid1 под корень, своп, lvm. Используется когда в машине два диска.
# *2 disk with deferred lvm* - размечаются 2 диска, создаются mdadm raid1 под корень, своп, а lvm настраивается после установки, с помощью команды sci-setup vg.
Служит для случаев, когда в системе используется софтварный рейд для корня и свопа, а под lvm используется аппаратный raid массив.
# *4 disk with lvm* - размечаются 4 диска, создаются mdadm raid1 под корень, своп и raid10 под lvm. Используется когда в машине 4 диска.
# *6 disk with lvm* - размечаются 6 диска, создаются mdadm raid1 под корень, своп и raid10 под lvm. Используется когда в машине 6 дисков.
# *8 disk with lvm* - размечаются 8 диска, создаются mdadm raid1 под корень, своп и raid10 под lvm. Используется когда в машине 8 дисков.

Если у вас сервер с двумя типами дисков, например 2 диска SATA и 8 дисков SAS, мы рекомендуем произвести начальную установку полностью на SATA диски по шаблону *2 disk with lvm* и на этапе настройки вручную добавить SAS-диски как дополнительную vg. Инструкции по этой операции - в разделе [[НАСТРОЙКА]].

h3. Адрес DNS сервера для кластера

Кластер имеет сервисную виртуальную машину, предоставляющую сервисы dns, dhcp, puppet, approx.
На странице [[НАСТРОЙКА]] описано, как подключить dns к уже имеющимся dns серверам в режиме forwarding.

Напоминаем, что адрес кластерного DNS +НЕ ДОЛЖЕН+ быть адресом любого существующего узла в сети.

Если в локальной сети уже есть DNS-сервер, то доменное имя кластера не должно совпадать с уже имеющимися в сети доменами
(используйте поддомен или вообще другое доменное имя).

Если сеть строится на основе клатера, то мы рекомендуем использовать DNS-сервер кластера как основной в локальной сети.

DNS-сервер кластера может быть перенастроен по вашей необходимости.

h2. Автоматическая настройка после установки узла

На странице [[POST-INSTALL]] перечислен список настроек, которые автоматически выполняются инсталлятором на каждом создаваемом узле.

h2. Кластер готов к установке

Установка с диска занимает приблизительно 15 минут на каждый узел.

В процессе установки вам потребуется:
* Ввести IP-адрес узла на интерлинке. Например: 192.168.232.1(2)
* Ввести маску сети. Например: 255.255.255.0
* Ввести адрес шлюза по-умолчанию (НЕ УКАЗЫВАЙТЕ, если для интерлинка используется отдельная сетевая карта!)
* Ввести адрес DNS-сервера на интерлинке. Например: 192.168.232.20
* Ввести хостнейм сервера, рекомендуются хостнеймы вида gnt[0-9]
* Ввести домен для сервера.
* Выбрать один из предустановленных вариантов разметки диска или разметить его вручную.
* Указать диски, на которые должен быть установлен загрузчик grub. Отметьте +физический диск+ (не раздел, и не том software RAID!), на который установлен корневой раздел или диски, на который собран software RAID корневого раздела.
* Можно указать дополнительные параметры ядра, но обычно это ни к чему.

После успешной установки следует донастроить сеть на узлах и инициализировать кластер: [[НАСТРОЙКА]]