УСТАНОВКА » История » Версия 14
Версия 13 (Владимир Ипатов, 05.02.2013 03:14) → Версия 14/90 (Владимир Ипатов, 05.02.2013 03:15)
h1. Установка
{{toc}}
[[УСТАНОВКА]] | [[СБОРКА-ISO]] | [[НАСТРОЙКА]] | [[ОПЕРАЦИИ]] | [[ЛИЦЕНЗИЯ]] | [[СОСТОЯНИЕ]]
in English: [[OVERVIEW]] | [[INSTALL]] | [[BUILD-ISO]] | [[SETUP]] | [[OPERATIONS]] | [[GITMAGIC]] | [[LICENSE]] | [[STATUS]]
h2. Загрузка ISO-образа
ISO-образы доступны для скачивания отсюда: http://sci-dev.skycover.ru/dist/
Вы можете собрать свой собственный ISO-образ из исходников (для продвинутых пользователей): [[Сборка-ISO]]
h2. Запись ISO-образа на диск
ISO-образ можно записать используя пишущий cd-rom и любую программу для записи образов на диски.
h2. Планирование топологии
Система устанавливается на два узла (вы можете использовать только один узел, но опции отказоустойчивости не будут доступны - получится обычная система виртуализации).
После начальной инициализации кластера вы сможете добавить в него и дополнительные узлы.
Узлы должны быть соединены между собой по сети на скорости 1Гбит.
Мы рекомендуем использовать 2 сетевые карты:
* одну, с поддержкой 1Гбит Ethernet использовать для объединения узлов внутренней сетью (интерлинком). Можно использовать патч-корд категории 5e.
* вторую подключить к комутатору локальной сети.
Можно использовать третью сетевую карту для подключения к Internet.
Подробнее о вариантах топологии для разных предприятий написано на странице [[Планирование топологии]].
h2. Минимальные системные требования
При реальном внедрении следует подбирать характеристики железа под конкретные задачи.
Для тестовых применений минимальные требования:
* 1GB RAM
* 50GB HDD
* 1Gbit ethernet для DRBD линка(в случае, если узлов > 1)
* Поддержка аппаратной виртуализации(в случае, если планируется использовать HVM режим)
h2. Установка системы
На данный момент вы должны подготовить следующую информацию по поводу будущей установки:
* Адрес и маску локальной сети
* Адрес и маску сети интерлинка
* IP адреса обоих узлов (обоих сетях)
* Доменные имена для обоих узлов
* IP адрес кластера (это дополнительный адрес, который будет автоматически присваиваться главному узлу, он может быть в любой подсети, доступной всем узлам).
* Доменное имя кластера
* Адрес шлюза по умолчанию (в локальной сети).
* Адрес будущего DNS-сервера для кластера (на интерлинке), который будет установлен в сервисной виртуальной машине
(адрес не должен совпадать с адресом уже существующих узлов!)
* Пароль пользователя root
* Понимание того, как будет устроена дисковая система - использование sofware RAID или hardware RAID, или вообще без RAID (не рекомендуется).
h3. Разметка жестких дисков
Вы должны подготовить следующие разделы на Ваших узлах:
|_.Раздел|_.Точка монтирования|_.Размер|_.Назначение|
|1 (или md0)|/|10G|корневой раздел для хранения системных данных ноды|
|2 (или md1)|swap|1G|Раздел подкачки для Dom0 из расчета 512Mb RAM|
|3 (или md2)|LVM xenvg|остальное|LVM группа 'xenvg'|
|xenvg/system-stuff|/stuff|20G|виртуальный том для хранения дистрибутивов и образов бэкапов виртуальных машин|
На LVM группе "xenvg" будет выделяться место для создания томов виртуальных машин.
Также на ней располагается раздел "system-stuff", который монтируется в систему как /stuff.
На нем следует хранить большие файлы наподобие установочных образов для виртуальных машин, резервные копии и тд.
Если вы хотите разместить другие разделы на xenvg, их нужно называть "system-*", потому что ganeti в этом дистрибутиве уже настроен на игнорирование таких имен (см. [[НАСТРОЙКА]]).
h3. Адрес DNS сервера для кластера
Кластер имеет сервисную виртуальную машину, предоставляющую сервисы dns, dhcp, puppet, approx.
На странице [[НАСТРОЙКА]] описано, как подключить dns к уже имеющимся dns серверам в режиме forwarding.
Напоминаем, что адрес кластерного DNS +НЕ ДОЛЖЕН+ быть адресом любого существующего узла в сети.
Если в локальной сети уже есть DNS-сервер, то доменное имя кластера не должно совпадать с уже имеющимися в сети доменами
(используйте поддомен или вообще другое доменное имя).
Если сеть строится на основе клатера, то мы рекомендуем использовать DNS-сервер кластера как основной в локальной сети.
DNS-сервер кластера может быть перенастроен по вашей необходимости.
h2. Автоматическая настройка после установки узла
На странице [[POST-INSTALL]] перечислен список настроек, которые автоматически выполняются инсталлятором на каждом создаваемом узле.
h2. Кластер готов к установке
Установка с диска занимает приблизительно 15 минут на каждый узел.
Обратите внимание, что даже в русскоязычной сборке дистрибутива инсталлятор работает на английском языке.
В процессе установки вам потребуется:
* Ввести IP-адрес узла на интерлинке. Например: 192.168.2.1(2)
* Ввести маску сети. Например: 255.255.255.0
* Ввести адрес шлюза по-умолчанию (НЕ УКАЗЫВАЙТЕ, если для итерлинка используется отдельная сетевая карта!)
* Ввести адрес DNS-сервера на интерлинке. Например: 192.168.1.254
* Выбрать один из предустановленных вариантов разметки диска или разметить его вручную.
* Указать диски, на которые должен быть установлен загрузчик grub. Отметьте +физический диск+ (не раздел, и не том software RAID!), на который установлен корневой раздел или диски, на который собран software RAID корневого раздела.
* Модно указать дополнительные параметры ядра, но обычно это ни к чему.
После успешной установки следует настроить и инициализировать кластер: [[НАСТРОЙКА]]
{{toc}}
[[УСТАНОВКА]] | [[СБОРКА-ISO]] | [[НАСТРОЙКА]] | [[ОПЕРАЦИИ]] | [[ЛИЦЕНЗИЯ]] | [[СОСТОЯНИЕ]]
in English: [[OVERVIEW]] | [[INSTALL]] | [[BUILD-ISO]] | [[SETUP]] | [[OPERATIONS]] | [[GITMAGIC]] | [[LICENSE]] | [[STATUS]]
h2. Загрузка ISO-образа
ISO-образы доступны для скачивания отсюда: http://sci-dev.skycover.ru/dist/
Вы можете собрать свой собственный ISO-образ из исходников (для продвинутых пользователей): [[Сборка-ISO]]
h2. Запись ISO-образа на диск
ISO-образ можно записать используя пишущий cd-rom и любую программу для записи образов на диски.
h2. Планирование топологии
Система устанавливается на два узла (вы можете использовать только один узел, но опции отказоустойчивости не будут доступны - получится обычная система виртуализации).
После начальной инициализации кластера вы сможете добавить в него и дополнительные узлы.
Узлы должны быть соединены между собой по сети на скорости 1Гбит.
Мы рекомендуем использовать 2 сетевые карты:
* одну, с поддержкой 1Гбит Ethernet использовать для объединения узлов внутренней сетью (интерлинком). Можно использовать патч-корд категории 5e.
* вторую подключить к комутатору локальной сети.
Можно использовать третью сетевую карту для подключения к Internet.
Подробнее о вариантах топологии для разных предприятий написано на странице [[Планирование топологии]].
h2. Минимальные системные требования
При реальном внедрении следует подбирать характеристики железа под конкретные задачи.
Для тестовых применений минимальные требования:
* 1GB RAM
* 50GB HDD
* 1Gbit ethernet для DRBD линка(в случае, если узлов > 1)
* Поддержка аппаратной виртуализации(в случае, если планируется использовать HVM режим)
h2. Установка системы
На данный момент вы должны подготовить следующую информацию по поводу будущей установки:
* Адрес и маску локальной сети
* Адрес и маску сети интерлинка
* IP адреса обоих узлов (обоих сетях)
* Доменные имена для обоих узлов
* IP адрес кластера (это дополнительный адрес, который будет автоматически присваиваться главному узлу, он может быть в любой подсети, доступной всем узлам).
* Доменное имя кластера
* Адрес шлюза по умолчанию (в локальной сети).
* Адрес будущего DNS-сервера для кластера (на интерлинке), который будет установлен в сервисной виртуальной машине
(адрес не должен совпадать с адресом уже существующих узлов!)
* Пароль пользователя root
* Понимание того, как будет устроена дисковая система - использование sofware RAID или hardware RAID, или вообще без RAID (не рекомендуется).
h3. Разметка жестких дисков
Вы должны подготовить следующие разделы на Ваших узлах:
|_.Раздел|_.Точка монтирования|_.Размер|_.Назначение|
|1 (или md0)|/|10G|корневой раздел для хранения системных данных ноды|
|2 (или md1)|swap|1G|Раздел подкачки для Dom0 из расчета 512Mb RAM|
|3 (или md2)|LVM xenvg|остальное|LVM группа 'xenvg'|
|xenvg/system-stuff|/stuff|20G|виртуальный том для хранения дистрибутивов и образов бэкапов виртуальных машин|
На LVM группе "xenvg" будет выделяться место для создания томов виртуальных машин.
Также на ней располагается раздел "system-stuff", который монтируется в систему как /stuff.
На нем следует хранить большие файлы наподобие установочных образов для виртуальных машин, резервные копии и тд.
Если вы хотите разместить другие разделы на xenvg, их нужно называть "system-*", потому что ganeti в этом дистрибутиве уже настроен на игнорирование таких имен (см. [[НАСТРОЙКА]]).
h3. Адрес DNS сервера для кластера
Кластер имеет сервисную виртуальную машину, предоставляющую сервисы dns, dhcp, puppet, approx.
На странице [[НАСТРОЙКА]] описано, как подключить dns к уже имеющимся dns серверам в режиме forwarding.
Напоминаем, что адрес кластерного DNS +НЕ ДОЛЖЕН+ быть адресом любого существующего узла в сети.
Если в локальной сети уже есть DNS-сервер, то доменное имя кластера не должно совпадать с уже имеющимися в сети доменами
(используйте поддомен или вообще другое доменное имя).
Если сеть строится на основе клатера, то мы рекомендуем использовать DNS-сервер кластера как основной в локальной сети.
DNS-сервер кластера может быть перенастроен по вашей необходимости.
h2. Автоматическая настройка после установки узла
На странице [[POST-INSTALL]] перечислен список настроек, которые автоматически выполняются инсталлятором на каждом создаваемом узле.
h2. Кластер готов к установке
Установка с диска занимает приблизительно 15 минут на каждый узел.
Обратите внимание, что даже в русскоязычной сборке дистрибутива инсталлятор работает на английском языке.
В процессе установки вам потребуется:
* Ввести IP-адрес узла на интерлинке. Например: 192.168.2.1(2)
* Ввести маску сети. Например: 255.255.255.0
* Ввести адрес шлюза по-умолчанию (НЕ УКАЗЫВАЙТЕ, если для итерлинка используется отдельная сетевая карта!)
* Ввести адрес DNS-сервера на интерлинке. Например: 192.168.1.254
* Выбрать один из предустановленных вариантов разметки диска или разметить его вручную.
* Указать диски, на которые должен быть установлен загрузчик grub. Отметьте +физический диск+ (не раздел, и не том software RAID!), на который установлен корневой раздел или диски, на который собран software RAID корневого раздела.
* Модно указать дополнительные параметры ядра, но обычно это ни к чему.
После успешной установки следует настроить и инициализировать кластер: [[НАСТРОЙКА]]