[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

исчезает виртуальная машина после live миграции в kvm



Добрый день!

Есть два хоста: storhost и vsp

Оба с squezze + некоторые пакеты из sid, experimental. Кстати это не одно и тоже ли ?

Использую kvm и libvirt для работы с виртуальными машинами.

Хочу сделать миграцию виртуальной машины с storhost на vsp. Предварительно создаю такой же lvm том на vsp по размеру и имени как и на storhost'е

На обоих машинах диск - lvm том(точнее на storhost он уже есть и на нем стоит система monitor'а): /dev/bigraid/monitor

Софт на обоих:

1. linux-image-3.0.0-1-amd64

2. libvirt-bin 0.8.3-5+squeeze2

3. qemu 0.12.5+dfsg-5+squeeze6


Заходим на storhost в virsh и делаем:
virsh# virsh # migrate --verbose --copy-storage-all --live monitor qemu+ssh://vsp/system
Migration: [100 %]

Вот что в /var/log/libvirt/libvirtd.log на storhost

09:42:58.530: 427: error : qemuMonitorIO:577 : internal error End of file from monitor
09:42:58.587: 431: error : qemudDomainBlockStats:6766 : Requested operation is not valid: domain is not running
09:42:58.592: 429: error : qemudDomainBlockStats:6766 : Requested operation is not valid: domain is not running
09:42:58.596: 430: error : qemudDomainInterfaceStats:6844 : Requested operation is not valid: domain is not running
09:46:30.918: 430: error : qemuDomainMigrateBegin3:7584 : Requested operation is not valid: domain is not running
09:56:31.101: 431: error : qemuDomainGetJobInfo:8057 : Requested operation is not valid: domain is not running

Но по моему это не имеет отношение к миграции , т.е. по сути это пустая информацию. Будем считать что в лог ни чего не записалось.

Вот что в /var/log/libvirt/libvirtd.log на vsp

09:52:14.000: 16427: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock
09:52:45.000: 16430: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock
09:53:16.000: 16428: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock
09:53:47.000: 16429: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock
09:54:18.000: 16426: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock
09:54:49.000: 16427: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock
09:55:20.000: 16430: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock
09:55:51.000: 16428: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock
09:56:21.000: 16429: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock
09:56:52.000: 16426: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock
09:57:22.001: 16427: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock
09:57:52.001: 16430: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock
09:58:23.000: 16428: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock
09:58:54.000: 16429: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock
09:59:25.000: 16426: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock
10:03:17.616: 16425: error : qemuMonitorIOWrite:447 : Unable to write to monitor: Обрыв канала

Здесь по моему это тоже не имеет отношение к миграции. Может только последняя строчка. Опять же! Я не знаю когда она появилась: во время миграции, после нее или когда я выключил успешно про мигрировавшую машину.

Так вот после миграции машина нормально работает на vsp. А на storhost остается выключенная.

Но! Как только я выключаю её на vsp машина просто исчезает из virt-manager и выводе root@vsp# virsh list --all тоже она осутствует

Почему это происходит ?

После этого я создаю новую виртуалку на vsp и указываю её жесткий диск /dev/bigraid/monitor.

Стартую её и вижу с мигрировавшую monitor. Она работает и все хорошо.

Но почему исчезает блин после выключения. Зачем эти пляски по созданию новой ВМ и потом пляски с /udev/rules.d дабы удалить там инфу о старом mac адресе - Я не понимаю.

И еще момент что такое transient domain и какие у него особенности (простыми словами если можно)?

Всем спасибо за уделенное время!
-- 

С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир 
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru

Reply to: