Проект

Общее

Профиль

УСТАНОВКА » История » Версия 24

Версия 23 (Dmitry Chernyak, 20.03.2015 01:30) → Версия 24/90 (Владимир Ипатов, 07.03.2016 01:37)

h1. Установка

{{toc}}

[[OVERVIEW]] | [[INSTALL]] | [[BUILD-ISO]] | [[SETUP]] | [[OPERATIONS]] | [[GITMAGIC]] | [[LICENSE]] | [[STATUS]]
на Русском: [[ОБЗОР]] | [[СБОРКА-ISO]] | [[УСТАНОВКА]] | [[НАСТРОЙКА]] | [[ОПЕРАЦИИ]] | [[МАГИЯ GIT]] | [[ЛИЦЕНЗИЯ]] | [[СОСТОЯНИЕ]]

h2. Загрузка ISO-образа

ISO-образы доступны для скачивания отсюда: http://sci-dev.skycover.ru/dist/

Вы можете собрать свой собственный ISO-образ из исходников (для продвинутых пользователей): [[Сборка-ISO]]

h2. Запись ISO-образа на диск

ISO-образ можно записать используя пишущий cd-rom и любую программу для записи образов на диски.

h2. Запись ISO на флешку

ISO-образ можно записать на флешку, используя любую предназначенную для этого утилиту, например, unetbootin. Для этого программе в типе системы надо выбрать Debian нужной версии и указать путь к ISO.

Также можно воспользоваться нашим методом создания загрузочной флешки:

Вам потребуется любая флешка с первым разделом, отформатированным в vfat, который способен вместить установочный ISO.

Запустите скрипт от root:
<pre>
./makeusb.sh /dev/sdX
</pre>
Где /dev/sdX - путь к файлу блочного устройства, ссылающегося на Вашу флешку(всю флешку, а не на раздел с vfat - /dev/sdX1)
После выполнения скрипта файловая система с первого раздела флешки будет смонтирована в /mnt (это может быть изменено в тексте скрипта).
Вы должны скопировать созданный ISO в корневую директорию этой файловой системы и корректно отмонтировать ее.
Теперь Вы можете запустить установщик с флэшки.

h2. Планирование топологии

Система устанавливается на два узла (вы можете использовать только один узел, но опции отказоустойчивости не будут доступны - получится обычная система виртуализации).
После начальной инициализации кластера вы сможете добавить в него и дополнительные узлы.

Узлы должны быть соединены между собой по сети на скорости 1Гбит.
Мы рекомендуем использовать 2 сетевые карты:
* одну, с поддержкой 1Гбит Ethernet использовать для объединения узлов внутренней сетью (интерлинком). Можно использовать патч-корд категории 5e.
* вторую подключить к комутатору локальной сети.

Можно использовать третью сетевую карту для подключения к Internet.
Подробнее о вариантах топологии для разных предприятий написано на странице [[Планирование топологии]].

h2. Минимальные системные требования

При реальном внедрении следует подбирать характеристики железа под конкретные задачи.
Для тестовых применений минимальные требования:
* 1GB RAM
* 50GB HDD
* 1Gbit ethernet для DRBD линка(в случае, если узлов > 1)
* Поддержка аппаратной виртуализации(в случае, если планируется использовать HVM режим)

h2. Установка системы

На данный момент вы должны подготовить следующую информацию по поводу будущей установки:
* Адрес и маску локальной сети для обоих узлов
* Доменные имена для обоих узлов
* IP адрес кластера (это дополнительный адрес, который будет автоматически присваиваться главному узлу, он может быть в любой подсети, доступной всем узлам).
* Доменное имя кластера
* Адрес шлюза по умолчанию (в локальной сети).
* Адрес будущего DNS-сервера для кластера (на интерлинке), который будет установлен в сервисной виртуальной машине
(адрес не должен совпадать с адресом уже существующих узлов!)
Подробнее про настройку сети можно прочитать здесь:
https://redmine.skycover.ru/projects/sci-cd/wiki/НАСТРОЙКА#Настройка-сети
* Пароль пользователя root
* Понимание того, как будет устроена дисковая система - использование sofware RAID или hardware RAID, или вообще без RAID (не рекомендуется).

h3. Разметка жестких дисков

Инсталлятор автоматически размечает дисковую систему следующим образом (при использовании ручной разметки следует придерживаться той же схемы):
|_.Раздел|_.Точка монтирования|_.Размер|_.Назначение|
|1 (или md0)|/|10G|корневой раздел для хранения системных данных ноды|
|2 (или md1)|swap|1G|Раздел подкачки для Dom0 из расчета 512Mb RAM|
|3 (или md2)|LVM xenvg|остальное|LVM группа 'xenvg'|
|xenvg/system-stuff|/stuff|20G|виртуальный том для хранения дистрибутивов и образов бэкапов виртуальных машин|

На LVM группе "xenvg" будет выделяться место для создания томов виртуальных машин.
Также на ней располагается раздел "system-stuff", который монтируется в систему как /stuff.
На нем следует хранить большие файлы наподобие установочных образов для виртуальных машин, резервные копии и тд.

Если вы хотите разместить другие разделы на xenvg, их нужно называть "system-*", потому что ganeti в этом дистрибутиве уже настроен на игнорирование таких имен (см. [[НАСТРОЙКА]]).

Инсталлятор предоставляет следующие типы автоматической разметки:
# *1 disk with lvm* - размечается 1 диск, на нем будет и корень и своп, и lvm - годится для случаев, когда диск 1(не рекомендуется для промышленных
применений), а также если используется аппаратный рейд.
# *1 disk with deferred lvm* - размечается 1 диск, на нем будет корень и своп, а lvm настраивается после установки, с помощью команды sci-setup vg.
Служит для случаев, когда в системе имеется 1 диск(или hwraid массив) под корень и своп и 1 диск/hwraid под lvm.
# *2 disk with lvm* - размечаются 2 диска, создаются mdadm raid1 под корень, своп, lvm. Используется когда в машине два диска.
# *2 disk with deferred lvm* - размечаются 2 диска, создаются mdadm raid1 под корень, своп, а lvm настраивается после установки, с помощью команды sci-setup vg.
Служит для случаев, когда в системе используется софтварный рейд для корня и свопа, а под lvm используется аппаратный raid массив.
# *4 disk with lvm* - размечаются 4 диска, создаются mdadm raid1 под корень, своп и raid10 под lvm. Используется когда в машине 4 диска.
# *6 disk with lvm* - размечаются 6 диска, создаются mdadm raid1 под корень, своп и raid10 под lvm. Используется когда в машине 6 дисков.
# *8 disk with lvm* - размечаются 8 диска, создаются mdadm raid1 под корень, своп и raid10 под lvm. Используется когда в машине 8 дисков.

Если у вас сервер с двумя типами дисков, например 2 диска SATA и 8 дисков SAS, мы рекомендуем произвести начальную установку полностью на SATA диски по шаблону *2 disk with lvm* и на этапе настройки вручную добавить SAS-диски как дополнительную vg. Инструкции по этой операции - в разделе [[НАСТРОЙКА]].

h3. Адрес DNS сервера для кластера

Кластер имеет сервисную виртуальную машину, предоставляющую сервисы dns, dhcp, puppet, approx.
На странице [[НАСТРОЙКА]] описано, как подключить dns к уже имеющимся dns серверам в режиме forwarding.

Напоминаем, что адрес кластерного DNS +НЕ ДОЛЖЕН+ быть адресом любого существующего узла в сети.

Если в локальной сети уже есть DNS-сервер, то доменное имя кластера не должно совпадать с уже имеющимися в сети доменами
(используйте поддомен или вообще другое доменное имя).

Если сеть строится на основе клатера, то мы рекомендуем использовать DNS-сервер кластера как основной в локальной сети.

DNS-сервер кластера может быть перенастроен по вашей необходимости.

h2. Автоматическая настройка после установки узла

На странице [[POST-INSTALL]] перечислен список настроек, которые автоматически выполняются инсталлятором на каждом создаваемом узле.



h2. Кластер готов к установке

Установка с диска занимает приблизительно 15 минут на каждый узел.

В процессе установки вам потребуется:
* Ввести IP-адрес узла на интерлинке. Например: 192.168.232.1(2) 192.168.2.1(2)
* Ввести маску сети. Например: 255.255.255.0
* Ввести адрес шлюза по-умолчанию (НЕ УКАЗЫВАЙТЕ, если для интерлинка итерлинка используется отдельная сетевая карта!)
* Ввести адрес DNS-сервера на интерлинке. Например: 192.168.232.20 192.168.1.254
* Ввести хостнейм сервера, рекомендуются хостнеймы вида gnt[0-9]
* Ввести домен для сервера.
*
Выбрать один из предустановленных вариантов разметки диска или разметить его вручную.
* Указать диски, на которые должен быть установлен загрузчик grub. Отметьте +физический диск+ (не раздел, и не том software RAID!), на который установлен корневой раздел или диски, на который собран software RAID корневого раздела.
* Можно Модно указать дополнительные параметры ядра, но обычно это ни к чему.

После успешной установки следует донастроить сеть на узлах и инициализировать кластер: [[НАСТРОЙКА]]