Проект

Общее

Профиль

УСТАНОВКА » История » Версия 43

Версия 42 (Dmitry Chernyak, 15.12.2016 22:43) → Версия 43/90 (Dmitry Chernyak, 15.12.2016 22:45)

h1. Новые инструкции по установке Установка

{{toc}}

[[OVERVIEW]] | [[INSTALL]] | [[SETUP]] | [[OPERATIONS]] | [[LICENSE]]
[[ОБЗОР]] | [[УСТАНОВКА]] | [[НАСТРОЙКА]] | [[ОПЕРАЦИИ]] | [[ЛИЦЕНЗИЯ]]

h2. Загрузка ISO-образа

Скачайте инсталляционный диск, готовый для использования: *"Скачать ISO-образ":https://sci.skycover.ru/projects/sci-cd/documents*
Для получения ссылки необходимо "зарегистрироваться":https://sci.skycover.ru/account/register

h2. Самостоятельная сборка ISO-образа

Как собрать свой собственный ISO-образ из исходников написано в разделе [[Сборка-ISO]] (для продвинутых пользователей, которые хотят включить в инсталлятор собственные наработки).

h2. Установка пакетом на уже установленную систему

Для продвинутых пользователей. Подробнее: [[Установка пакетом]]

h2.
Запись ISO-образа на диск или флэшку

ISO-образ можно записать используя пишущий CD-ROM cd-rom и любую программу для записи образов на диски.

h2. Запись ISO на флешку

ISO-образ можно записать на флешку, используя любую предназначенную для этого утилиту, например, unetbootin.
Для этого программе, программе в "типе системы", типе системы надо выбрать Debian нужной версии ... и указать путь к ISO.

Также можно записать ISO образ напрямую на флешку:

<pre>
dd if=/путь/к/iso of=/dev/sdX bs=4k
</pre>
Где /dev/sdX - путь к файлу блочного устройства, ссылающегося на Вашу флешку
(понять это можно, вставив флешку и запустив dmesg - в конце будет информация о подключенной флешке).

h2. Планирование топологии

Система устанавливается на два узла (вы можете использовать только один узел, но опции отказоустойчивости не будут доступны - получится обычная система виртуализации).

. После начальной инициализации кластера вы сможете добавить в него и дополнительные узлы.

Узлы должны быть соединены между собой по сети на скорости 1Гбит.
Мы рекомендуем использовать 2 сетевые карты:
* одну, с поддержкой 1Гбит Ethernet использовать для объединения узлов внутренней сетью (интерлинком). Можно использовать патч-корд категории 5e.
* вторую подключить к комутатору локальной сети.

Можно использовать третью сетевую карту для подключения к Internet.
Подробнее о вариантах топологии для разных предприятий написано на странице [[Планирование топологии]].

h2. Минимальные системные требования

При реальном внедрении следует подбирать характеристики железа под конкретные задачи.
Для тестовых применений минимальные требования:
* 2GB 1GB RAM
* 50GB HDD
* две сетевых карты (для межсетевого соединения необходим 1Gbit ethernet) ethernet для DRBD линка(в случае, если узлов &gt; 1)
* Поддержка аппаратной виртуализации (в виртуализации(в случае, если планируется использовать HVM режим)

Для промышленного использования оба узла h2. Установка системы

На данный момент вы
должны иметь одинаковую конфигурацию (мощность процессора, память, объем подготовить следующую информацию по поводу будущей установки:
* Адрес
и скорость дисковой системы).

h2. Установка
маску локальной сети для обоих узлов

Перед установкой следует подключить узлы кабелем

* Доменные имена для обоих узлов
* IP адрес кластера (это дополнительный адрес, который будет автоматически присваиваться главному узлу, он может быть
в LAN. любой подсети, доступной всем узлам).
Затем загрузиться * Доменное имя кластера
* Адрес шлюза по умолчанию (в локальной сети).
* Адрес будущего DNS-сервера для кластера (на интерлинке), который будет установлен в сервисной виртуальной машине
(адрес не должен совпадать
с инсталляционного образа на первом узле. адресом уже существующих узлов!)
В процессе работы инсталлятора: Подробнее про настройку сети можно прочитать здесь:
https://sci.skycover.ru/projects/sci-cd/wiki/НАСТРОЙКА#Настройка-сети
* Пароль пользователя root
* Понимание того, как будет устроена дисковая система - использование sofware RAID или hardware RAID, или вообще без RAID (не рекомендуется).


h3. Настроить подключение к сети Разметка жестких дисков

Укажите статический IP Инсталлятор автоматически размечает дисковую систему следующим образом (при использовании ручной разметки следует придерживаться той же схемы):
|_.Раздел|_.Точка монтирования|_.Размер|_.Назначение|
|1 (или md0)|/|10G|корневой раздел
для подключения к LAN хранения системных данных ноды|
|2 (или md1)|swap|1G|Раздел подкачки для Dom0 из расчета 512Mb RAM|
|3 (или md2)|LVM xenvg|остальное|LVM группа &#39;xenvg&#39;|
|xenvg/system-stuff|/stuff|20G|виртуальный том для хранения дистрибутивов и образов бэкапов виртуальных машин|


!ip.JPG!

Далее укажите маску, gateway
На LVM группе &quot;xenvg&quot; будет выделяться место для создания томов виртуальных машин.
Также на ней располагается раздел &quot;system-stuff&quot;, который монтируется в систему как /stuff.
На нем следует хранить большие файлы наподобие установочных образов для виртуальных машин, резервные копии
и DNS-сервер для этого подключения. тд.

h3. Задать имя узла

В поле Hostname укажите имя узла, например gnt1 или gnt-1.
"1" означает,
Если вы хотите разместить другие разделы на xenvg, их нужно называть &quot;system-*&quot;, потому что это будет первый узел кластера. ganeti в этом дистрибутиве уже настроен на игнорирование таких имен (см. [[НАСТРОЙКА]]).

!hostname.JPG!

В поле Domain укажите домен

!domain.JPG!

h3. Задать пароль root

Не делайте пароль слишком простым

h3. Произвести разметку диска

Инсталлятор предоставляет несколько типов следующие типы автоматической разметки.

Если вы планируете использовать программный RAID, выберите
разметки:
*2(4,6,8) # *1 disk with lvm* - в зависимости от количества жестких дисков. размечается 1 диск, на нем будет и корень и своп, и lvm - годится для случаев, когда диск 1(не рекомендуется для промышленных
Для двух дисков применений), а также если используется raid1, аппаратный рейд.
# *1 disk with deferred lvm* - размечается 1 диск, на нем будет корень и своп, а lvm настраивается после установки, с помощью команды sci-setup vg.
Служит
для большего количества используется raid10. случаев, когда в системе имеется 1 диск(или hwraid массив) под корень и своп и 1 диск/hwraid под lvm.
Raid10 # *2 disk with lvm* - рекомендуемый уровень raid размечаются 2 диска, создаются mdadm raid1 под корень, своп, lvm. Используется когда в машине два диска.
# *2 disk with deferred lvm* - размечаются 2 диска, создаются mdadm raid1 под корень, своп, а lvm настраивается после установки, с помощью команды sci-setup vg.
Служит
для использования с виртуализацией.

Если вы используете
случаев, когда в системе используется софтварный рейд для корня и свопа, а под lvm используется аппаратный RAID, выберите raid массив.
*1 # *4 disk with lvm* - размечаются 4 диска, создаются mdadm raid1 под корень, своп и raid10 под lvm. Используется когда в машине 4 диска.
# *6 disk with lvm* - размечаются 6 диска, создаются mdadm raid1 под корень, своп и raid10 под lvm. Используется когда в машине 6 дисков.
# *8 disk with lvm* - размечаются 8 диска, создаются mdadm raid1 под корень, своп и raid10 под lvm. Используется когда в машине 8 дисков.


Если у вас сервер с двумя типами дисков, например 2 диска SATA и 8 дисков SAS (сырых или под аппаратным RAID), SAS, мы рекомендуем произвести начальную установку полностью на SATA диски по шаблону *2 disk with lvm* и после на этапе настройки кластера, вручную добавить SAS-диски как дополнительную VG.

!disk.JPG!

На вопросы об удалении старых разделов и создании RAID, если будут надо согласиться.

vg. Инструкции по этой операции и другие подробности - в разделе [[Разметка диска]]. [[НАСТРОЙКА]].

h3. Указать диск Адрес DNS сервера для установки загрузчика grub. кластера

Отметьте все физические диски (не раздел, и не том software RAID!), на которые установлена система.

!grub.JPG!

h3. Завершить установку - перезагрузиться.

h3. Аналогично установить второй узел

Задать имя узла, например gnt2 или gnt-2 (сообразно с первым узлом).
Кластер имеет сервисную виртуальную машину, предоставляющую сервисы dns, dhcp, puppet, approx.
Пароль установить такой же, На странице [[НАСТРОЙКА]] описано, как на первый сервер. подключить dns к уже имеющимся dns серверам в режиме forwarding.

h2. Установить время

Удостоверьтесь,
Напоминаем, что на обоих узлах установлено одинаковое время. адрес кластерного DNS +НЕ ДОЛЖЕН+ быть адресом любого существующего узла в сети.

<pre>
# date
Thu Mar 12 12:23:10 MSK 2015
</pre>

Если нет - установите его командой

<pre>
# date -s "12 MAR 2015 12:23:00"
</pre>

h2. Сконфигурировать бэкбон (межсерверное соединение)

Не отключайте узлы от LAN.
Соедините узлы вторым кабелем через свободные гигабитные сетевые карты, проверьте, что на них зажглись лампочки link (при наличии лампочек).
Данное подключение будет использоваться для межсерверного соединения, по которому будут синхронизироваться данные на дисках.
Если
в сервера подключены еще какие-то ethernet кабели, локальной сети уже есть DNS-сервер, то их следует отключить на время настройки бэкбона.
После появления линка на каждом узле запустите (можно параллельно, можно последовательно):
<pre>
sci-setup backbone
</pre>

Результат:
<pre>
root@gnt-1:~# sci-setup backbone
Node number: 1
LAN interface: eth0
Waiting 30 seconds for links to be up
Backbone interface: eth3
Up and test backbone

Waiting for backbone to get ready (MAXWAIT is 2 seconds).
inet addr:10.101.200.11 Bcast:10.101.200.255 Mask:255.255.255.0
ok.
</pre>

После настройки обоих узлов проверьте соединение. На первом узле запустите:
<pre>
ping 10.100.200.12
</pre>

<pre>
root@gnt-1:~# ping 10.101.200.12
PING 10.101.200.12 (10.101.200.12) 56(84) bytes of data.
64 bytes from 10.101.200.12: icmp_req=1 ttl=64 time=0.263 ms
64 bytes from 10.101.200.12: icmp_req=2 ttl=64 time=0.112 ms
^C
--- 10.101.200.12 ping statistics ---
2 packets transmitted, 2 received, 0% packet loss, time 999ms
rtt min/avg/max/mdev = 0.112/0.187/0.263/0.076 ms
</pre>

h2. Инициализировать кластер

На первом узле запустите
<pre>
sci-setup cluster
</pre>

Конфигуратор попросит указать адрес
доменное имя кластера не должно совпадать с уже имеющимися в LAN. сети доменами
<pre>
root@gnt-1:~# sci-setup cluster
Cluster domain name will be gnt.
Cluster IP will be 10.101.200.10 on the interlink.
We recommend to set it to some unbound LAN IP address,
but it is safe to simply press ENTER.
Set cluster IP [10.101.200.10]:
</pre>

(используйте поддомен или вообще другое доменное имя).

Если в этот момент укажете свободный статический IP-адрес в LAN, сеть строится на основе клатера, то мы рекомендуем использовать DNS-сервер кластера как основной в дальнейшем сможете обращаться к управляющему модулю локальной сети.

DNS-сервер
кластера может быть перенастроен по этому IP.
Это удобно, но не не обязательно и не влияет
вашей необходимости.

h2. Автоматическая настройка после установки узла

На странице [[POST-INSTALL]] перечислен список настроек, которые автоматически выполняются инсталлятором
на саму возможность управления. Можно просто нажать ENTER и управляюещму модулю будет назначен адрес во внутренней сети кластера. каждом создаваемом узле.

Конфигуратор проверит пинг ко второму узлу и попросит принять его ssh-ключ и ввести пароль h2. Кластер готов к нему для получения и проверки параметров конфигурации.
<pre>
Connecting to Node2 via 10.101.200.12
You will be prompted for a root password...
установке

The authenticity of host '10.101.200.12 (10.101.200.12)' can't be established.
ECDSA key fingerprint is 6a:5a:78:fa:af:c1:23:97:87:9f:66:46:94:7e:f2:f5.
Are you sure you want to continue connecting (yes/no)?
</pre>

Введите "yes"
<pre>
root@10.101.200.12's password:
</pre>

Пароль ко второму узлу.

После успешного прохождения всех проверок,
Установка с диска занимает приблизительно 15 минут на экране будут показаны параметры конфигурации кластера.
<pre>
########################################
Parameters detected:
Domain name: example.sci
каждый узел.

Master network interface: backbone

Cluster name: gnt
Cluster IP: 10.101.200.10

Node 1 name: gnt-1
Node 1 IP: 10.101.200.11
Node 1 LAN IP: 192.168.11.28

Node 2 name: gnt-2
Node 2 IP: 10.101.200.12
Node 2 LAN IP: 192.168.11.29
Proceed with cluster creation [y/n]?
</pre>

Если все правильно, введите "y" и нажмите ENTER для создания кластера.

<pre>
Refilling sci.conf
Creating empty /root/.ssh
Fullfilling /etc/hosts
Fulfilling default /etc/ganeti/networks
Set random vnc password for cluster: miotaigh
add sci repo in apt sources
Initializing cluster
Tuning cluster
Adding the second node
-- WARNING --
Performing this operation is going to replace the ssh daemon keypair
on the target machine (gnt-2.example.sci) with the ones of the current one
and grant full intra-cluster ssh root access to/from it

The authenticity of host 'gnt-2.example.sci (10.101.200.12)' can't be established.
ECDSA key fingerprint is 6a:5a:78:fa:af:c1:23:97:87:9f:66:46:94:7e:f2:f5.
Are you sure you want to continue connecting (yes/no)?
</pre>

В процессе добавления второго узла в кластер, потребуется еще раз принять ssh ключ и ввести пароль. установки вам потребуется:
Введите "yes" и затем пароль ко второму узлу.

В конце Вы увидите вывод команды диагностики кластера:
<pre>
VTue Jun 28 18:37:06 2016
* Verifying cluster config Ввести IP-адрес узла на интерлинке. Например: 192.168.232.1(2)
Tue Jun 28 18:37:06 2016 * Verifying cluster certificate files Ввести маску сети. Например: 255.255.255.0
Tue Jun 28 18:37:06 2016 * Verifying hypervisor parameters Ввести адрес шлюза по-умолчанию (НЕ УКАЗЫВАЙТЕ, если для интерлинка используется отдельная сетевая карта!)
Tue Jun 28 18:37:07 2016 * Verifying all nodes belong to an existing group Ввести адрес DNS-сервера на интерлинке. Например: 192.168.232.20
Waiting for job 10 ...
Tue Jun 28 18:37:07 2016
* Verifying group 'default' Ввести хостнейм сервера, рекомендуются хостнеймы вида gnt[0-9]
Tue Jun 28 18:37:08 2016 * Gathering data (2 nodes) Ввести домен для сервера.
Tue Jun 28 18:37:09 2016 * Gathering disk information (2 nodes) Выбрать один из предустановленных вариантов разметки диска или разметить его вручную.
Tue Jun 28 18:37:09 2016 * Verifying configuration file consistency Указать диски, на которые должен быть установлен загрузчик grub. Отметьте +физический диск+ (не раздел, и не том software RAID!), на который установлен корневой раздел или диски, на который собран software RAID корневого раздела.
Tue Jun 28 18:37:09 2016 * Verifying node status
Tue Jun 28 18:37:09 2016 * Verifying instance status
Tue Jun 28 18:37:10 2016 * Verifying orphan volumes
Tue Jun 28 18:37:10 2016 * Verifying N+1 Memory redundancy
Tue Jun 28 18:37:10 2016 * Other Notes
Tue Jun 28 18:37:10 2016 * Hooks Results
Node DTotal DFree MTotal MNode MFree Pinst Sinst
gnt-1.example.sci 101.2G 82.2G 3.9G 1.5G 2.4G 0 0
gnt-2.example.sci 101.3G 81.3G 3.9G 1.5G 2.4G 0 0
If all is ok, proceed with sci-setup sci
</pre>

h2. Создать управляющую виртуальную машину.

На первом узле запустите
<pre>
sci-setup sci
</pre>

Если хотите, чтобы внутренний DNS кластера использовал DNS вашей компании как форвардеры (обращался
Можно указать дополнительные параметры ядра, но обычно это ни к ним при резолве внешних адресов), то запустите команду следующим образом:
<pre>
sci-setup sci -d
</pre>
чему.

Без @-d@ внутренний DNS кластера будет резолвить интернет-адреса напрямую через корневые серверы Интернет.

Конфигуратор попросит указать адрес управляющей ВМ в LAN:
<pre>
root@gnt-1:~# sci-setup sci
Set sci LAN IP or enter "none" and press ENTER:
</pre>

Укажите свободный статический IP в LAN (в примере: 192.168.11.2).

После успешного прохождения всех проверок, успешной установки следует донастроить сеть на экране будут показаны параметры конфигурации управляющей ВМ.
<pre>
Creating service machine sci
IP: 10.101.200.2 on backbone
Second network device: lan
Second network IP: 192.168.11.2
Proceed with sci VM creation [y/n]?
</pre>

Если все правильно, введите "y"
узлах и нажмите ENTER для создания ВМ.
<pre>
Adding sci to /etc/hosts
Tue Jun 28 18:44:02 2016 * creating instance disks...
Tue Jun 28 18:44:09 2016 adding instance sci to cluster config
Tue Jun 28 18:44:13 2016 - INFO: Waiting for instance sci to sync disks
Tue Jun 28 18:44:13 2016 - INFO: - device disk/0: 2.10% done, 2m 27s remaining (estimated)
Tue Jun 28 18:45:13 2016 - INFO: - device disk/0: 39.90% done, 1m 31s remaining (estimated)
Tue Jun 28 18:46:14 2016 - INFO: - device disk/0: 78.20% done, 34s remaining (estimated)
Tue Jun 28 18:46:48 2016 - INFO: - device disk/0: 100.00% done, 0s remaining (estimated)
Tue Jun 28 18:46:48 2016 - INFO: Instance sci's disks are in sync
Tue Jun 28 18:46:48 2016 * running the instance OS create scripts...
Tue Jun 28 18:49:42 2016 * starting instance...
</pre>

h2. Поздравляем! В вашем кластере создана первая виртуальная машина!

После запуска, ВМ sci автоматически производит донастройку узлов кластера и становится для них сервером DNS. Операция занимает в среднем 5-10 минут.

Попробуйте команды:
<pre>
gnt-instance list
gnt-instance info sci
gnt-cluster verify
ssh sci
</pre>

Как управлять кластером и создать новые виртуальные машины читайте в разделе [[ОПЕРАЦИИ]]
инициализировать кластер: [[НАСТРОЙКА]]

[[УСТАНОВКА - версия до 2.3 включительно]]