SPARC Solaris UFS -> ZFS migrálás

Sziasztok!

A következő kérdésem lenne:

Van egy SPARC architektúrájú Solaris 10 Update 8 as rendszerünk ami jelenleg teljesen UFS fájlrendszert használ lokális diszkekről. Mivel a helyet kinőttük és a zónák alatt teljesen elfogyott a hely, arra jutottam, hogy egy többlépcsős migrációt hajtanák végre:

- A zónákat a lokális diszkről migrálnánk SAN-ra. Jelenleg két aktív Qlogic FC adapter van a gépben, amiket látunk is a SAN felől. Tehát elviekben csak a meglévő drivert kellene cserélnem SVC optimalizált driverre és engedélyzni a multipath.
- A SAN-ról jövő "diszkeken" ZFS pool-t hozék létre és erre migrálnám a zónákat. Ehhez első látásra a legjobb módszernek a "zoneadm -z zóna move /hova" tűnik. Bár Virtualboxban végzett tesztek során sikerült néha a zóna adatait lenullázni. Erre még nem sikerült rájönnöm, hogy miért volt.

Ha a zónákat sikeresen átmigráltam, akkor már lesz elég hely ahhoz, hogy az OS-t is migráljam ZFS-re. Ehhez a már korábban máshol sikeresen használt live upgrade-t használnám. A következő tervet dolgoztam ki:
- A jelenlegi Solaris Volume Manager által nyújtott tükröt lebontom. A második lokális diszket kiveszem a mirror-ból.
- A második diszkre létrehozom a leendő root pool-t
- Létrehozom az új boot environmentet a zfs pool-ba.
- Módosítom a boot sorrendet OK promptnál, hogy a második dikszről bootoljon a gép

Csinált már valaki ehhez hasonlót éles rendszeren? Milyen buktatókkal kell számolnom?

Backup természetesen több oldalról is készül majd az esemény előtt: a base os-ről flar image, az egész rendszerről fájlszintű backup TSM-el. A gépben van DVD olvasó, szóval ha minden kötél szakad, akkor a telepítő dvd-ről is tudunk bootolni.

Hozzászólások

Ha ugyis leallitod a zonat, file szintu masolassal is atmasolhatod zfs-re.

Ma megvolt az első host. Sikeresen lement bár volt pár buktató, és van amit nem értek még mindig. A másik legjobb dolog pedig, hogy egy szép kis dokumentációt összehoztam a migráláshoz, hogy legközelebb ne legyen ennyi gond.

A zónákat rsync -el költöztettem át az új helyükre, minden további nélkül futnak is, a rajta levő applikáció pedig köszöni örül és végzi a dolgát :)

Az egyik LUN-t kézzel kell boot után onlina-ba tenni a ZFS poolban és az okát nem tudom. Ha esetleg van valakinek tapasztalata IBM SDD + Solaris 10 + ZFS trióval és látott már ilyet, akkor mitől lehet ?

Minden bootkor kapok hibaüzenetet is, de 13 másodperc múlva magától helyre is jön. (ZFS-8000-D3 ami a support oldalak szerint a ZFS device failure, majd FMD-8000-4M ami a repair action és végül a FMD-8000-6U ami a resolved jelentéssel bír) Ezen kívül sem az SDD sem a kernel nem ad hibaüzenetet. A zpool online minden hiba nélkül visszahúzza a vpath-t.

Verziók:
Kernel: Generic_142909-17 sun4v sparc SUNW,T5140
QLogic verzió: 11.10.0 REV=2005.01.04.14.31 (QLE 2460)
ZFS kernelcsomag: 11.10.0 REV=2006.05.18.02.15
SDD verzió: 1.6.5.0-0