[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: Виртуализация



14.03.2013 20:11, Dmitry A. Zhiglov пишет:
> 12 марта 2013 г., 22:10 пользователь "Артём Н." <artiom14@yandex.ru> написал:
>>> Одну СХД на три сервака - вот что точно нужно.
>> Хотелось бы СХД разместить на 2-х серверах, которые имеют по 6 Тб (для моих нужд
>> пока вполне хватит), но не хотелось бы задействовать их исключительно по СХД.
>> Возможно ли? Или лучше не стоит?
>>
>> По СХД, кстати, больше всего вопросов...
> Это ветка еще актуальна?
Актуальна. Я, пока что, читаю про облачные системы.

> Прочитал первое сообщение. Должна быть выстроена система мониторинга и
> архивирования с высокой степенью доступности.
> Верно?
Да.
С оговоркой: должна быть система с высокой степенью доступности.
Но запихнуть всю серверную в облако мне никто не даст. :-)
В общем-то, я хочу сделать облако для себя, на свой риск.
Не дадут возможности - уволюсь.

> Что бы перетекали виртуалки (не делал на linux) нужен shared storage.
> В "дешевом варианте" подойдет iSCSI.
Да, думаю OpenISCSI.

> Создаете на одном сервере iSCSI initiator и подключаете storage по iSCSI.
> На storage нарезаем  VG на LVM. Правда не скажу как поведет себя LVM в
> данном случае, возможно надо смотреть в сторону cLVM... надо бы
> почитать Вот и будут работать два гипервизора подключенные к одному
> схд по iscsi
Прочитал статью, в которой как раз описывалось, как организовать СХД на cLVM и
OpenISCSI. Правда, в качестве ВМ там использовался OpenVZ и Proxmox.
OpenVZ не хочется.

> Дальше ставится kvm (предпочитаю именно его)
Использую его на своём компьютере с qemu.
Мне тоже нравится.
Но любопытно было бы пощупать Xen.
Имеет смысл?

> и на какой либо машине
> Debian c gui на котором запускаем virtmanager, подключаемся удаленно к
> гипервизору и настраиваем. Только этот virtmanager не все умеет, и
> надо смотреть на его возможность.
Мне он так не нравится... Может, есть что-то лучше, чем virt-manager?
Может, Proxmox?

> СХД.
> Видел как ставят небыстрые и ёмкие схд и получается следующее:
> наступает в организации профилактика и вся дежурная смена начинает по
> задании верховного руководства делать бэкапы акронисом и ничего не
> успевают сделать за 4-8 часов профилактики или успевают частично.
> Упираются или в производительность схд (физическую способность) или в
> пропускную способность сетевого интерфейса или в то, что копируют не
> raw а files несколько десятков миллионов россыпью.
Похожая ситуация. Бэкапы есть только частичные.
Была ситуация: перезагрузили шлюз во время текущих работ.
Шлюз не поднялся.
Остался единственный второй шлюз.
Когда принесли диск шлюза, оказалось, что ext3 сильно разрушена. Бэкапа нет.
Даже акронисового и гхостового. С трудом восстановил настройки ПО, которое
стояло на шлюзе, буквально по кускам.

> Здесь надо бы смотреть на общую ситуацию, выдумывать  сценарии,
> опрашивать клиентов пользующиеся соответствующими сервисами,
> разрабатывать план бэкапирования и план восстановления.
Внутренняя сеть. Клиентов опрашивать, в основном, без толку.
Им нужно, чтобы если свалится какой-либо из серверов, знать какие кнопки нажать,
чтобы быстро его восстановить (краткая простая инструкция).
А что я там разверну, их, надеюсь, не волнует.
По правде говоря, облако там не очень-то и нужно. Я просто хочу освоить инструмент.

> Отсюда
> вытекает требование на реакцию вашей системы хранения на эти планы и
> насколько организация готова простаивать пока поднипите что-то из
> бэкапа.
По-идее, там горячее резервирование каждой машины. Поэтому, простаивать там вряд
ли она будет.
Если же действительно будет простой и реальная задержка в функционировании, да
ещё и по вине сети или службы, которая за неё отвечает, будут ОЧЕНЬ большие
потери и очень серьёзные разборки, которые повлекут, как минимум, лишение премий.
С учётом того, что к данной организации я не отношусь (есть сейчас модное слово
"аутсорсинг"), плакал мой кластер, в случае простоя...

> Ну а далее можно тасовать диски в raid 1, 10, 50, 60 или
> что-то еще и разделять критичные и быстрые данные на быстрые
> устройства, а те что могут "покурить" на более медленные.
Набросок, касательно СХД (поправьте, где неправильно):
1. Есть две машины по 6-ть дисков на 1Тб.
2. Создаю программный RAID средствами mdadm (не знаю есть ли аппаратный
контроллер, но, скорее всего, нет).
Может, RAID1?
С другой стороны, я не уверен, что мне хватит 6 Тб. Тут надо думать.
Могу ли я обойтись только LVM и не использовать mdadm?
На каждой из машин конфигурация одинакова.
4. Устанавливаю на каждой из машин хранилища OpenISCSI.
Впоследствии - на каждой ноде кластера.
Имею два блочных устройства.
5. Создаю разделы на устройствах. Три раздела: для ВМ, для хранилища копий,
например, и один резервный.
6. Создаю три группы cLVM, в каждую из которых входит один раздел.
7. Создаю логические тома. пока не знаю, наверное, всё-таки будет один том на
группу, поскольку разграничивать там нечего.
8. Создаю ФС. Например, GFS2.

То, что не нравится:
1.Получается, что ВМ находятся на одном сервере. Если он выходит из строя, нет
ВМ. Возможно ли как-то сделать так, чтобы ВМ были "размазаны" между серверами и,
при этом, если выходит из строя один сервер, всё переходило бы на другой и не
рушилось?
2. Именно GFS2, насколько я понял, требует количество журналов не меньше, чем
нод в кластере. Снижает гибкость. Возможно ли как-то избавиться или какой ФС
заменить?
3. multipath для балансировки нагрузки возможно как-то прикрутить к двум
серверам, а не к двум интерфейсам одного массива? o.O

> Заббикс
> Много не скажу, здесь, и не только здесь, есть более опытные коллеги
> которые работают с ним ежедневно, я лишь пока планирую его внедрить во
> 2-3 квартале. Все может упереться с схд на БД, если очень много хостов
> и тикеров будет. Некоторые рекомендации на сайте заббикса можно
> получить из документации, отсюда и плясать.
Насчёт Zabbix, пока не знаю про количество хостов.
Он сейчас работает в тестовом режиме и есть накладки.
Вчера установил агента на машину в другой подсети, при этом, для неё была
создана отдельная группа (поскольку она является "как-бы шлюзом" для трёх других
машин, но на ней windows, а zabbix-proxy под windows нет, сделал на перспективу).
Сейчас в Zabbix два пользователя, включая администратора.
На группу с этой машиной есть права только у администратора.
Но почему-то, после установки, начальнику позвонил инженер, у которого прав на
группу нет, и ругался в стиле: "Какого хрена ваша машина делает в нашей сети?!" o.O

То ли я напортачил, и ему выводятся уведомления, когда в группе, которая ему
недоступна, что-то дохнет, то ли это ошибка Zabbix...
Буду проверять.

> 
> Очень много "если", как видите.
> Было бы интересно узнать что решили и как обустроили все хозяйство.
Пока ещё решаю.
Вроде как, есть возможность получить четыре сервера. И ещё два, если место в
стойках найду. Для маленького кластера этого, надеюсь, хватит.
Любопытно, а по OpenNebula и Eucalyptus
[http://www.eucalyptus.com/why-eucalyptus] (но я пока совсем его не смотрел, в
Debian есть какие-то пакеты, но сам он, видимо, идёт цельной ISO-шкой) вы
что-нибудь можете сказать?

И ещё, что насчёт OpenStack (архитектура интересная, но дальше краткого
ознакомления, я пока не шёл)?


Reply to: