Xen 4 + Debian 6 + Heartbeat 2, live migration

Fórumok

Feljött egy kérdés.

Létezik egy Xen klaszter, 2 hoszttal.
Egyiken fut a vm1 guest, másikon a vm2 guest.
Heartbeat közöttük.

Szeretném mozgatni a vm2-t a 2-es hosztról az egyesre, méghozzá "live".

ezek egyelőre nem segítettek:
vm migrate --live vm2 xen1 (itt elindul a migráció, de amint átér, hiba van a crm_mon alatt és leáll a guest)
crm_resource -M -r vm2 -H xen1 (nem történik semmi)

Ötletek?

Hozzászólások

Ha jól tudom Xen-nel csak közös stroge-el tudsz migrálni. Van ilyened hozzá?

dehogyis :>

Van 1 iscsi-s gép ami pl storage, freenas vagy bármi.
Erre az iscsi-s devicera LVM került, és az azon lévő particíókra kerültek a domU fájlrendszerei.

Természetesen 1 domU 1 gépen futott. Mikor live migrationnal átpakoltam a másik dom0-ra, akkor az használta a iscsi megosztáson lévő LVM partíciót.

Ubuntu 10.04, Thinkpad x61s

Három géppel letisztultabb.
Nálam a storage gépen egy md0 van kiosztva iscsi-val, a xen gépek ezt használják munkapartícióra. ocfs2 van rajta, xen-ről formázva.
Gondolkodom az lvm bevonásán, a snapshot miatt úgy akarnám, hogy md0 kiosztva a storage-n, ez, mint "pv" bemegy a xen-en lévő LVM-be, majd azt használnám "lv"-ként.
Ilyen esetben nem tudom, minden okés lenne e?

A xend konfigurációban ugye engedélyezted, hogy egymás portjait elérjék a hostok? Plusz kell alá közös storage, amit mindkét host lát.

A Heartbeathez nem tudok hozzászólni, én ilyet eddig csak RHEL 5.x alatt csináltam Redhat Cluster Suite-tel.

--
Web 2.0: you make the content, they make the money.

ugyanolyan CPU van mindkét host gépben?

Ha crm_mon akkor gondolom 3 -as heartbeat.
Minden esetre próbáld meg, hogy a heartbeatet leállítod és akkor migrálsz


xm migrate --live vm2 xen1

Parancsal. Szóval szerintem a crm -ben van valami elrontva. Ezt lrmadmin -al is ki tudod deríteni.

----
올드보이
http://molnaristvan.eu/

Nos, most már megy a xen live migráció, heartbeat-tel együtt.
Ez eddig okés is.

Most ha host1-vm1 , host2-vm2 párosítás fut, és a host2-t kirántom az áramból,
akkor a vm2-nek újra kéne indulnia a host1-en.
Nos, ez nem megy, a vm1 indításánál "start hibát" ír ki a jószág (crm_mon).
Előtte a 30s-os ocfs2 recovery idő fut, lehet, hogy ez kakil bele a rendszerbe? Vagy más ötlet?