УСТАНОВКА » История » Версия 62
Версия 61 (Евгений Антонов, 21.02.2018 17:53) → Версия 62/90 (Владимир Ипатов, 03.03.2018 18:51)
h1. Новые инструкции по установке
{{toc}}
[[OVERVIEW]] | [[INSTALL]] | [[OPERATIONS]] | [[LICENSE]]
[[ОБЗОР]] | [[УСТАНОВКА]] | [[ОПЕРАЦИИ]] | [[ЛИЦЕНЗИЯ]]
h2. Загрузка ISO-образа
Для получения актуального образа системы вам необходимо "пройти процедуру бесплатной регистрации":https://sci.skycover.ru/account/register
*"Скачать ISO-образ":https://sci.skycover.ru/projects/sci-cd/documents*
Образ системы предоставляется в формате гибридного ISO образа, который вы можете записать на CD-болванку, или USB-накопитель
h2. Запись образа
h3. Windows
Для записи диска на USB накопитель вы можете воспользоваться утилитой Rufus.
В пункте Device - укажите свой накопитель
Create a bootable disk using : DD-image и нажав на значок CD-привода, укажите в проводнике путь до файла-образа
И нажмите Start
Для записи на cd болванку вы можете воспользоваться штатными средствами записи (windows 7 или выше) или любой бесплатной программой для записи ISO образов
h3. Linux
В состав дистрибутивов Unix-base систем входит утилита dd .
Откройте командную строку, передите в каталог с диском, и выполните следующее :
<pre>
dd if=SCI-2.4.iso of=/dev/sd(буквадиска) bs=4k
</pre>
По результату , у вас будет подготовлен носитель с готовой к установке системой.
h2. Минимальные требования для установки системы
Минимальные системные требования:
* 4GB RAM
* 50GB HDD
* две сетевых карты 1Gbit
* поддержка аппаратной виртуализации
Оба узла должны иметь одинаковую конфигурацию (мощность процессора, память, объем и скорость дисковой системы).
h1. Установка системы
h2. Установка первого узла
Подключите узел к локальной сети. *Не подключайте кабели к другим сетевым адаптерам.*
Переходим в BIOS либо в модуль загрузки сервера, и ставим загрузку с USB (CD) накопителя, в зависимости от подготовленного ранее дистрибутива.
Загружаемся в оболочку-приветствие и выбираем пункт Install.
{{thumbnail(install.png, size=600)}}
Указываем IP адрес узла (подходит любой свободный из вашей сети), в нашем случае это 192.168.13.11 и выбираем пункт <Continue>
{{thumbnail(ip_1node.png, size=600)}}
Указываем маску подсети и выбираем пункт<Continue>
{{thumbnail(netmask.png, size=600)}}
Указываем основной шлюз и выбираем пункт <Continue>
{{thumbnail(gateway.png, size=600)}}
После настройки сети переходим к именованию узлов.
Узлы именуются gnt№ (т.е., gnt1, gnt2 и т.д.).
ПРИМЕЧАНИЕ: имена узлов должны обязательно заканчиваться на цифру, начиная с 1.
Указваем hostname - gnt1
{{thumbnail(hostname_1.png, size=600)}}
Указываени адрес DNS-сервера
{{thumbnail(dnssci.png, size=600)}}
Указываеним Domain name: если у вас уже есть внутренний домен, указывайте его.
Если нет, рекомендуется указывать домен sci .sci
{{thumbnail(donainsci.png, size=600)}}
Далее задаём пароль для пользователя root .
{{thumbnail(root_pass.png, size=600)}}
Дважды (чтобы избежать опечатки) система просит нас его ввести. Вводим, запоминаем.
После ввода данных о пользователе, переходим к разметке жестких дисков.
Вы можете использовать готовые шаблоны.
Если у вас аппаратный рейд - выберите шаблон "1 disk with LVM", если программный рейд, выберите 2 (4, 6, 8) disks количество дисков с LVM
В нашем примере у нас на сервере 1 HDD диск без RAID, указываем:
1 disk with LVM в зависимости от количества дисков.
И нажатием клавиши Enter подтвержаем.
{{thumbnail(diskpart.png, size=600)}}
Установщик еще раз запросит подтверждение на внесение изменений в разметку, выбираем Yes и подтвержаем нажатием Enter.
{{thumbnail(diskpart_yes.png, size=600)}}
После установки пакетов системы необходимо указать диск для установки загрузчика grub.
Отметьте все физические диски (обычно, это /dev/sdX, /devsdX, не раздел, и не том software RAID!), на которые установлена система.
Рекомендуется отмечать все диски.
{{thumbnail(boot_hdd.png, size=600)}}
После установки загрузчика, система доустановит необходимые пакеты, и установка будет считаться законченной.
{{thumbnail(install_coplete.png, size=600)}}
Извлеките установочный носитель и нажмите Continue.
Система загрузится в режиме командной строки. Теперь вы можете войти в систему.
Установка завершена.
h2. Установка второго узла
Установка второго узла происходит аналогично.Необходимо только :
Задать имя узла, например gnt2 или gnt-2 (сообразно с первым узлом).
Пароль установить такой же, как на первый сервер.
h2. Установить время
Удостоверьтесь, что на обоих узлах установлено одинаковое время.
<pre>
# date
Thu Mar 12 12:23:10 MSK 2015
</pre>
Если нет - установите его командой
<pre>
# date -s "12 MAR 2015 12:23:00"
</pre>
h2. Сконфигурировать бэкбон (межсерверное соединение)
Не отключайте узлы от LAN.
Соедините узлы вторым кабелем через свободные гигабитные сетевые карты, проверьте, что на них зажглись лампочки link (при наличии лампочек).
Данное подключение будет использоваться для межсерверного соединения, по которому будут синхронизироваться данные на дисках.
Если в сервера подключены еще какие-то ethernet кабели (кроме LAN и будущего Backbone), то их следует отключить на время настройки бэкбона.
После появления линка на каждом узле запустите (можно параллельно, можно последовательно):
<pre>
sci-setup backbone
</pre>
Результат:
<pre>
root@gnt-1:~# sci-setup backbone
Node number: 1
LAN interface: eth0
Waiting 30 seconds for links to be up
Backbone interface: eth3
Up and test backbone
Waiting for backbone to get ready (MAXWAIT is 2 seconds).
inet addr:10.101.200.11 Bcast:10.101.200.255 Mask:255.255.255.0
ok.
</pre>
> Ключ -f позволяет автоматически перезаписать старую настройку бэкбона, если она была
После настройки обоих узлов проверьте соединение. На первом узле запустите:
<pre>
ping 10.101.200.12
</pre>
<pre>
root@gnt-1:~# ping 10.101.200.12
PING 10.101.200.12 (10.101.200.12) 56(84) bytes of data.
64 bytes from 10.101.200.12: icmp_req=1 ttl=64 time=0.263 ms
64 bytes from 10.101.200.12: icmp_req=2 ttl=64 time=0.112 ms
^C
--- 10.101.200.12 ping statistics ---
2 packets transmitted, 2 received, 0% packet loss, time 999ms
rtt min/avg/max/mdev = 0.112/0.187/0.263/0.076 ms
</pre>
[[Настройка бэкбона для конфигурации с одним узлом]]
h2. Инициализировать кластер
На первом узле запустите
<pre>
sci-setup cluster
</pre>
Конфигуратор попросит указать адрес кластера в LAN.
<pre>
root@gnt-1:~# sci-setup cluster
Cluster domain name will be gnt.
Cluster IP will be 10.101.200.10 on the interlink.
We recommend to set it to some unbound LAN IP address,
but it is safe to simply press ENTER.
Set cluster IP [10.101.200.10]:
</pre>
Если в этот момент укажете свободный статический IP-адрес в LAN, то в дальнейшем сможете обращаться к управляющему модулю кластера по этому IP.
Это удобно, но не не обязательно и не влияет на саму возможность управления. Можно просто нажать ENTER и управляюещму модулю будет назначен адрес во внутренней сети кластера.
Конфигуратор проверит пинг ко второму узлу и попросит принять его ssh-ключ и ввести пароль к нему для получения и проверки параметров конфигурации.
<pre>
Connecting to Node2 via 10.101.200.12
You will be prompted for a root password...
The authenticity of host '10.101.200.12 (10.101.200.12)' can't be established.
ECDSA key fingerprint is 6a:5a:78:fa:af:c1:23:97:87:9f:66:46:94:7e:f2:f5.
Are you sure you want to continue connecting (yes/no)?
</pre>
Введите "yes"
<pre>
root@10.101.200.12's password:
</pre>
Пароль ко второму узлу.
После успешного прохождения всех проверок, на экране будут показаны параметры конфигурации кластера.
<pre>
########################################
Parameters detected:
Domain name: example.sci
Master network interface: backbone
Cluster name: gnt
Cluster IP: 10.101.200.10
Node 1 name: gnt-1
Node 1 IP: 10.101.200.11
Node 1 LAN IP: 192.168.11.28
Node 2 name: gnt-2
Node 2 IP: 10.101.200.12
Node 2 LAN IP: 192.168.11.29
Proceed with cluster creation [y/n]?
</pre>
Если все правильно, введите "y" и нажмите ENTER для создания кластера.
<pre>
Refilling sci.conf
Creating empty /root/.ssh
Fullfilling /etc/hosts
Fulfilling default /etc/ganeti/networks
Set random vnc password for cluster: miotaigh
add sci repo in apt sources
Initializing cluster
Tuning cluster
Adding the second node
-- WARNING --
Performing this operation is going to replace the ssh daemon keypair
on the target machine (gnt-2.example.sci) with the ones of the current one
and grant full intra-cluster ssh root access to/from it
The authenticity of host 'gnt-2.example.sci (10.101.200.12)' can't be established.
ECDSA key fingerprint is 6a:5a:78:fa:af:c1:23:97:87:9f:66:46:94:7e:f2:f5.
Are you sure you want to continue connecting (yes/no)?
</pre>
В процессе добавления второго узла в кластер, потребуется еще раз принять ssh ключ и ввести пароль.
Введите "yes" и затем пароль ко второму узлу.
В конце Вы увидите вывод команды диагностики кластера:
<pre>
VTue Jun 28 18:37:06 2016 * Verifying cluster config
Tue Jun 28 18:37:06 2016 * Verifying cluster certificate files
Tue Jun 28 18:37:06 2016 * Verifying hypervisor parameters
Tue Jun 28 18:37:07 2016 * Verifying all nodes belong to an existing group
Waiting for job 10 ...
Tue Jun 28 18:37:07 2016 * Verifying group 'default'
Tue Jun 28 18:37:08 2016 * Gathering data (2 nodes)
Tue Jun 28 18:37:09 2016 * Gathering disk information (2 nodes)
Tue Jun 28 18:37:09 2016 * Verifying configuration file consistency
Tue Jun 28 18:37:09 2016 * Verifying node status
Tue Jun 28 18:37:09 2016 * Verifying instance status
Tue Jun 28 18:37:10 2016 * Verifying orphan volumes
Tue Jun 28 18:37:10 2016 * Verifying N+1 Memory redundancy
Tue Jun 28 18:37:10 2016 * Other Notes
Tue Jun 28 18:37:10 2016 * Hooks Results
Node DTotal DFree MTotal MNode MFree Pinst Sinst
gnt-1.example.sci 101.2G 82.2G 3.9G 1.5G 2.4G 0 0
gnt-2.example.sci 101.3G 81.3G 3.9G 1.5G 2.4G 0 0
If all is ok, proceed with sci-setup sci
</pre>
h2. Создать управляющую виртуальную машину.
На первом узле запустите
<pre>
sci-setup sci
</pre>
Если хотите, чтобы внутренний DNS кластера использовал DNS вашей компании как форвардеры (обращался к ним при резолве внешних адресов), то запустите команду следующим образом:
<pre>
sci-setup sci -d
</pre>
Без @-d@ внутренний DNS кластера будет резолвить интернет-адреса напрямую через корневые серверы Интернет.
Конфигуратор попросит указать адрес управляющей ВМ в LAN:
<pre>
root@gnt-1:~# sci-setup sci
Set sci LAN IP or enter "none" and press ENTER:
</pre>
Укажите свободный статический IP в LAN (в примере: 192.168.11.2).
После успешного прохождения всех проверок, на экране будут показаны параметры конфигурации управляющей ВМ.
<pre>
Creating service machine sci
IP: 10.101.200.2 on backbone
Second network device: lan
Second network IP: 192.168.11.2
Proceed with sci VM creation [y/n]?
</pre>
Если все правильно, введите "y" и нажмите ENTER для создания ВМ.
<pre>
Adding sci to /etc/hosts
Tue Jun 28 18:44:02 2016 * creating instance disks...
Tue Jun 28 18:44:09 2016 adding instance sci to cluster config
Tue Jun 28 18:44:13 2016 - INFO: Waiting for instance sci to sync disks
Tue Jun 28 18:44:13 2016 - INFO: - device disk/0: 2.10% done, 2m 27s remaining (estimated)
Tue Jun 28 18:45:13 2016 - INFO: - device disk/0: 39.90% done, 1m 31s remaining (estimated)
Tue Jun 28 18:46:14 2016 - INFO: - device disk/0: 78.20% done, 34s remaining (estimated)
Tue Jun 28 18:46:48 2016 - INFO: - device disk/0: 100.00% done, 0s remaining (estimated)
Tue Jun 28 18:46:48 2016 - INFO: Instance sci's disks are in sync
Tue Jun 28 18:46:48 2016 * running the instance OS create scripts...
Tue Jun 28 18:49:42 2016 * starting instance...
</pre>
h2. Поздравляем! В вашем кластере создана первая виртуальная машина!
После запуска, ВМ sci автоматически производит донастройку узлов кластера и становится для них сервером DNS. Операция занимает в среднем 5-10 минут.
Попробуйте команды:
<pre>
gnt-instance list
gnt-instance info sci
gnt-cluster verify
ssh sci
</pre>
h2. Операции
Как управлять кластером и создать новые виртуальные машины читайте в разделе [[ОПЕРАЦИИ]]
----
[[УСТАНОВКА - версия до 2.3 включительно]]
{{toc}}
[[OVERVIEW]] | [[INSTALL]] | [[OPERATIONS]] | [[LICENSE]]
[[ОБЗОР]] | [[УСТАНОВКА]] | [[ОПЕРАЦИИ]] | [[ЛИЦЕНЗИЯ]]
h2. Загрузка ISO-образа
Для получения актуального образа системы вам необходимо "пройти процедуру бесплатной регистрации":https://sci.skycover.ru/account/register
*"Скачать ISO-образ":https://sci.skycover.ru/projects/sci-cd/documents*
Образ системы предоставляется в формате гибридного ISO образа, который вы можете записать на CD-болванку, или USB-накопитель
h2. Запись образа
h3. Windows
Для записи диска на USB накопитель вы можете воспользоваться утилитой Rufus.
В пункте Device - укажите свой накопитель
Create a bootable disk using : DD-image и нажав на значок CD-привода, укажите в проводнике путь до файла-образа
И нажмите Start
Для записи на cd болванку вы можете воспользоваться штатными средствами записи (windows 7 или выше) или любой бесплатной программой для записи ISO образов
h3. Linux
В состав дистрибутивов Unix-base систем входит утилита dd .
Откройте командную строку, передите в каталог с диском, и выполните следующее :
<pre>
dd if=SCI-2.4.iso of=/dev/sd(буквадиска) bs=4k
</pre>
По результату , у вас будет подготовлен носитель с готовой к установке системой.
h2. Минимальные требования для установки системы
Минимальные системные требования:
* 4GB RAM
* 50GB HDD
* две сетевых карты 1Gbit
* поддержка аппаратной виртуализации
Оба узла должны иметь одинаковую конфигурацию (мощность процессора, память, объем и скорость дисковой системы).
h1. Установка системы
h2. Установка первого узла
Подключите узел к локальной сети. *Не подключайте кабели к другим сетевым адаптерам.*
Переходим в BIOS либо в модуль загрузки сервера, и ставим загрузку с USB (CD) накопителя, в зависимости от подготовленного ранее дистрибутива.
Загружаемся в оболочку-приветствие и выбираем пункт Install.
{{thumbnail(install.png, size=600)}}
Указываем IP адрес узла (подходит любой свободный из вашей сети), в нашем случае это 192.168.13.11 и выбираем пункт <Continue>
{{thumbnail(ip_1node.png, size=600)}}
Указываем маску подсети и выбираем пункт<Continue>
{{thumbnail(netmask.png, size=600)}}
Указываем основной шлюз и выбираем пункт <Continue>
{{thumbnail(gateway.png, size=600)}}
После настройки сети переходим к именованию узлов.
Узлы именуются gnt№ (т.е., gnt1, gnt2 и т.д.).
ПРИМЕЧАНИЕ: имена узлов должны обязательно заканчиваться на цифру, начиная с 1.
Указваем hostname - gnt1
{{thumbnail(hostname_1.png, size=600)}}
Указываени адрес DNS-сервера
{{thumbnail(dnssci.png, size=600)}}
Указываеним Domain name: если у вас уже есть внутренний домен, указывайте его.
Если нет, рекомендуется указывать домен sci .sci
{{thumbnail(donainsci.png, size=600)}}
Далее задаём пароль для пользователя root .
{{thumbnail(root_pass.png, size=600)}}
Дважды (чтобы избежать опечатки) система просит нас его ввести. Вводим, запоминаем.
После ввода данных о пользователе, переходим к разметке жестких дисков.
Вы можете использовать готовые шаблоны.
Если у вас аппаратный рейд - выберите шаблон "1 disk with LVM", если программный рейд, выберите 2 (4, 6, 8) disks количество дисков с LVM
В нашем примере у нас на сервере 1 HDD диск без RAID, указываем:
1 disk with LVM в зависимости от количества дисков.
И нажатием клавиши Enter подтвержаем.
{{thumbnail(diskpart.png, size=600)}}
Установщик еще раз запросит подтверждение на внесение изменений в разметку, выбираем Yes и подтвержаем нажатием Enter.
{{thumbnail(diskpart_yes.png, size=600)}}
После установки пакетов системы необходимо указать диск для установки загрузчика grub.
Отметьте все физические диски (обычно, это /dev/sdX, /devsdX, не раздел, и не том software RAID!), на которые установлена система.
Рекомендуется отмечать все диски.
{{thumbnail(boot_hdd.png, size=600)}}
После установки загрузчика, система доустановит необходимые пакеты, и установка будет считаться законченной.
{{thumbnail(install_coplete.png, size=600)}}
Извлеките установочный носитель и нажмите Continue.
Система загрузится в режиме командной строки. Теперь вы можете войти в систему.
Установка завершена.
h2. Установка второго узла
Установка второго узла происходит аналогично.Необходимо только :
Задать имя узла, например gnt2 или gnt-2 (сообразно с первым узлом).
Пароль установить такой же, как на первый сервер.
h2. Установить время
Удостоверьтесь, что на обоих узлах установлено одинаковое время.
<pre>
# date
Thu Mar 12 12:23:10 MSK 2015
</pre>
Если нет - установите его командой
<pre>
# date -s "12 MAR 2015 12:23:00"
</pre>
h2. Сконфигурировать бэкбон (межсерверное соединение)
Не отключайте узлы от LAN.
Соедините узлы вторым кабелем через свободные гигабитные сетевые карты, проверьте, что на них зажглись лампочки link (при наличии лампочек).
Данное подключение будет использоваться для межсерверного соединения, по которому будут синхронизироваться данные на дисках.
Если в сервера подключены еще какие-то ethernet кабели (кроме LAN и будущего Backbone), то их следует отключить на время настройки бэкбона.
После появления линка на каждом узле запустите (можно параллельно, можно последовательно):
<pre>
sci-setup backbone
</pre>
Результат:
<pre>
root@gnt-1:~# sci-setup backbone
Node number: 1
LAN interface: eth0
Waiting 30 seconds for links to be up
Backbone interface: eth3
Up and test backbone
Waiting for backbone to get ready (MAXWAIT is 2 seconds).
inet addr:10.101.200.11 Bcast:10.101.200.255 Mask:255.255.255.0
ok.
</pre>
> Ключ -f позволяет автоматически перезаписать старую настройку бэкбона, если она была
После настройки обоих узлов проверьте соединение. На первом узле запустите:
<pre>
ping 10.101.200.12
</pre>
<pre>
root@gnt-1:~# ping 10.101.200.12
PING 10.101.200.12 (10.101.200.12) 56(84) bytes of data.
64 bytes from 10.101.200.12: icmp_req=1 ttl=64 time=0.263 ms
64 bytes from 10.101.200.12: icmp_req=2 ttl=64 time=0.112 ms
^C
--- 10.101.200.12 ping statistics ---
2 packets transmitted, 2 received, 0% packet loss, time 999ms
rtt min/avg/max/mdev = 0.112/0.187/0.263/0.076 ms
</pre>
[[Настройка бэкбона для конфигурации с одним узлом]]
h2. Инициализировать кластер
На первом узле запустите
<pre>
sci-setup cluster
</pre>
Конфигуратор попросит указать адрес кластера в LAN.
<pre>
root@gnt-1:~# sci-setup cluster
Cluster domain name will be gnt.
Cluster IP will be 10.101.200.10 on the interlink.
We recommend to set it to some unbound LAN IP address,
but it is safe to simply press ENTER.
Set cluster IP [10.101.200.10]:
</pre>
Если в этот момент укажете свободный статический IP-адрес в LAN, то в дальнейшем сможете обращаться к управляющему модулю кластера по этому IP.
Это удобно, но не не обязательно и не влияет на саму возможность управления. Можно просто нажать ENTER и управляюещму модулю будет назначен адрес во внутренней сети кластера.
Конфигуратор проверит пинг ко второму узлу и попросит принять его ssh-ключ и ввести пароль к нему для получения и проверки параметров конфигурации.
<pre>
Connecting to Node2 via 10.101.200.12
You will be prompted for a root password...
The authenticity of host '10.101.200.12 (10.101.200.12)' can't be established.
ECDSA key fingerprint is 6a:5a:78:fa:af:c1:23:97:87:9f:66:46:94:7e:f2:f5.
Are you sure you want to continue connecting (yes/no)?
</pre>
Введите "yes"
<pre>
root@10.101.200.12's password:
</pre>
Пароль ко второму узлу.
После успешного прохождения всех проверок, на экране будут показаны параметры конфигурации кластера.
<pre>
########################################
Parameters detected:
Domain name: example.sci
Master network interface: backbone
Cluster name: gnt
Cluster IP: 10.101.200.10
Node 1 name: gnt-1
Node 1 IP: 10.101.200.11
Node 1 LAN IP: 192.168.11.28
Node 2 name: gnt-2
Node 2 IP: 10.101.200.12
Node 2 LAN IP: 192.168.11.29
Proceed with cluster creation [y/n]?
</pre>
Если все правильно, введите "y" и нажмите ENTER для создания кластера.
<pre>
Refilling sci.conf
Creating empty /root/.ssh
Fullfilling /etc/hosts
Fulfilling default /etc/ganeti/networks
Set random vnc password for cluster: miotaigh
add sci repo in apt sources
Initializing cluster
Tuning cluster
Adding the second node
-- WARNING --
Performing this operation is going to replace the ssh daemon keypair
on the target machine (gnt-2.example.sci) with the ones of the current one
and grant full intra-cluster ssh root access to/from it
The authenticity of host 'gnt-2.example.sci (10.101.200.12)' can't be established.
ECDSA key fingerprint is 6a:5a:78:fa:af:c1:23:97:87:9f:66:46:94:7e:f2:f5.
Are you sure you want to continue connecting (yes/no)?
</pre>
В процессе добавления второго узла в кластер, потребуется еще раз принять ssh ключ и ввести пароль.
Введите "yes" и затем пароль ко второму узлу.
В конце Вы увидите вывод команды диагностики кластера:
<pre>
VTue Jun 28 18:37:06 2016 * Verifying cluster config
Tue Jun 28 18:37:06 2016 * Verifying cluster certificate files
Tue Jun 28 18:37:06 2016 * Verifying hypervisor parameters
Tue Jun 28 18:37:07 2016 * Verifying all nodes belong to an existing group
Waiting for job 10 ...
Tue Jun 28 18:37:07 2016 * Verifying group 'default'
Tue Jun 28 18:37:08 2016 * Gathering data (2 nodes)
Tue Jun 28 18:37:09 2016 * Gathering disk information (2 nodes)
Tue Jun 28 18:37:09 2016 * Verifying configuration file consistency
Tue Jun 28 18:37:09 2016 * Verifying node status
Tue Jun 28 18:37:09 2016 * Verifying instance status
Tue Jun 28 18:37:10 2016 * Verifying orphan volumes
Tue Jun 28 18:37:10 2016 * Verifying N+1 Memory redundancy
Tue Jun 28 18:37:10 2016 * Other Notes
Tue Jun 28 18:37:10 2016 * Hooks Results
Node DTotal DFree MTotal MNode MFree Pinst Sinst
gnt-1.example.sci 101.2G 82.2G 3.9G 1.5G 2.4G 0 0
gnt-2.example.sci 101.3G 81.3G 3.9G 1.5G 2.4G 0 0
If all is ok, proceed with sci-setup sci
</pre>
h2. Создать управляющую виртуальную машину.
На первом узле запустите
<pre>
sci-setup sci
</pre>
Если хотите, чтобы внутренний DNS кластера использовал DNS вашей компании как форвардеры (обращался к ним при резолве внешних адресов), то запустите команду следующим образом:
<pre>
sci-setup sci -d
</pre>
Без @-d@ внутренний DNS кластера будет резолвить интернет-адреса напрямую через корневые серверы Интернет.
Конфигуратор попросит указать адрес управляющей ВМ в LAN:
<pre>
root@gnt-1:~# sci-setup sci
Set sci LAN IP or enter "none" and press ENTER:
</pre>
Укажите свободный статический IP в LAN (в примере: 192.168.11.2).
После успешного прохождения всех проверок, на экране будут показаны параметры конфигурации управляющей ВМ.
<pre>
Creating service machine sci
IP: 10.101.200.2 on backbone
Second network device: lan
Second network IP: 192.168.11.2
Proceed with sci VM creation [y/n]?
</pre>
Если все правильно, введите "y" и нажмите ENTER для создания ВМ.
<pre>
Adding sci to /etc/hosts
Tue Jun 28 18:44:02 2016 * creating instance disks...
Tue Jun 28 18:44:09 2016 adding instance sci to cluster config
Tue Jun 28 18:44:13 2016 - INFO: Waiting for instance sci to sync disks
Tue Jun 28 18:44:13 2016 - INFO: - device disk/0: 2.10% done, 2m 27s remaining (estimated)
Tue Jun 28 18:45:13 2016 - INFO: - device disk/0: 39.90% done, 1m 31s remaining (estimated)
Tue Jun 28 18:46:14 2016 - INFO: - device disk/0: 78.20% done, 34s remaining (estimated)
Tue Jun 28 18:46:48 2016 - INFO: - device disk/0: 100.00% done, 0s remaining (estimated)
Tue Jun 28 18:46:48 2016 - INFO: Instance sci's disks are in sync
Tue Jun 28 18:46:48 2016 * running the instance OS create scripts...
Tue Jun 28 18:49:42 2016 * starting instance...
</pre>
h2. Поздравляем! В вашем кластере создана первая виртуальная машина!
После запуска, ВМ sci автоматически производит донастройку узлов кластера и становится для них сервером DNS. Операция занимает в среднем 5-10 минут.
Попробуйте команды:
<pre>
gnt-instance list
gnt-instance info sci
gnt-cluster verify
ssh sci
</pre>
h2. Операции
Как управлять кластером и создать новые виртуальные машины читайте в разделе [[ОПЕРАЦИИ]]
----
[[УСТАНОВКА - версия до 2.3 включительно]]