Sziasztok!
Egy 2 node-os kvm cluster-t szeretnénk építeni live vm migrációval. Ehhez vagy gfs vagy ocfs2 fájlrendszert használnánk, de nincs vele tapasztalatunk. Az interneten mindenféle véleményt lehet találni, de főleg régebbieket. Több helyen olvastam, hogy a történet vége az lett, hogy átálltak nfs-re. Az operációs rendszer valószínűleg Ubuntu 16.04 lesz.
Mi most 2016-ban a helyzet a cluster fájlrendszerekkel? Mennyire stabilak?
- 3194 megtekintés
Hozzászólások
- A hozzászóláshoz be kell jelentkezni
A két node drbd-vel szinkronizálja a helyi lemezeket, de erre kell valami fájlrendszer is, ami az egyidejű írást krzelni képes.
- A hozzászóláshoz be kell jelentkezni
Csak akkor ha ragaszkodsz az image file alapu vm-hez, de lehet az lvm is clustered lvm-el vagy kulon lvm kotetek/particiok a vm-eknek es azok parossaval kulon drbd-kbe fogva.
- A hozzászóláshoz be kell jelentkezni
+1
nem látom okát, h miért nem jó, ha van LVM majd ezen minden VM-nek külön DRBD (vagy fordítva mert úgy is lehet).
- A hozzászóláshoz be kell jelentkezni
subs
- A hozzászóláshoz be kell jelentkezni
Ha már OCFS, a tempójával kapcsolatban nekem is van kérdésem.
Konfig: 2 darab szerver, 1 switchen keresztül gigaethernettel összekötve.
Bennük KVM felett futó Debian-7, köztük DRBD + ocfs2.
Jó tartalékolás ad kiszolgálásra, olvasásra elfogadható, de fájl létrehozásra és főként törlésre nem vagyok vele elégedett.
Példaként alább a http://kernel.org -ról lerántott kernel forráskóddal mérhető idők ext4 és 2 node-os OCFS esetén:
ext4 tesztek a KVM felett futó szerveren:
PC1-ext4~$ time (tar xf linux-4.8.4.tar.xz; sync)
real 0m15.340s
user 0m8.361s
sys 0m2.364s
PC1-ext4~$ time ls -lR linux-4.8.4 | wc -l
70341
real 0m0.557s
user 0m0.204s
sys 0m0.352s
PC1-ext4~$ time du -sh linux-4.8.4
753M linux-4.8.4
real 0m0.190s
user 0m0.024s
sys 0m0.092s
PC1-ext4~$ time (rm -rf linux-4.8.4; sync)
real 0m1.174s
user 0m0.028s
sys 0m0.908s
OCFS2 tesztek a KVM felett futó szerveren:
1-es node-on kicsomagoljuk,
2-es node-on kétszer kilistázzuk
1-es node-on töröljük.
PC1-ocfs~$ time (tar xf ~/linux-4.8.4.tar.xz; sync)
real 1m55.108s
user 0m12.569s
sys 0m23.029s
pc2-ocfs~$ time ls -lR linux-4.8.4 | wc -l
70341
real 2m43.385s
user 0m1.108s
sys 0m12.161s
pc2-ocfs~$ time ls -lR linux-4.8.4 | wc -l
70341
real 0m1.143s
user 0m0.192s
sys 0m0.948s
PC1-ocfs~$ time (rm -rf linux-4.8.4; sync)
real 20m27.176s
user 0m0.272s
sys 1m27.361s
Kérdés: lehet-e rajta gyorsítani, vagy a lock-olások miatt tényleg ennyire lassú az inode bejegyzés illetve törlés OCFS2 esetén?
- A hozzászóláshoz be kell jelentkezni
Azt több helyen olvastam, hogy a lockolás miatt lassú. De ez valóban lassúnak nézki. Használsz pacemakert? Nem volt egyébként stabilitási problémád a fájlrendszerrel?
- A hozzászóláshoz be kell jelentkezni
Nálunk a ceph-drbd bevált ;)
// Happy debugging, suckers
#define true (rand() > 10)
- A hozzászóláshoz be kell jelentkezni
2 geppel ceph?
- A hozzászóláshoz be kell jelentkezni
ugyanakkora baromság mint bármely más elosztott fájlrendszert 2 node-on használni
// Happy debugging, suckers
#define true (rand() > 10)
- A hozzászóláshoz be kell jelentkezni
DRBD pl. nem is lehet tobb, azaz ha arra teszel fs-t, az sem lesz.
Legalabbis mirror eseten.
De en masra gondoltam. Vmiert az volt bennem, hogy 3 node alatt nem mukodik. Bocs.
- A hozzászóláshoz be kell jelentkezni
Mukodik ket nodeal 1+1 replicationnel (a default 1+2 emlekeim szerint), de 2 nodenal tuti trukkozni kell a monokkal szerintem (ha valaki csinalt ilyet es nem, fixme :))
De ertelemszeruen a ceph nem erre van kitalalva, hanem minimum 3-ra(es altalaban meg az is keves :))
---------------------------------------------------
Hell is empty and all the devils are here.
-- Wm. Shakespeare, "The Tempest"
- A hozzászóláshoz be kell jelentkezni
rbd-t akartam írni nem drbd -t. Visszaterve a dologra, a legtobb cluster fs nem igazan alkalmas 2 node-os uzemre, nem veletlen. Azert ajanlottam a ceph-et, mert jobban viseli a split braint
// Happy debugging, suckers
#define true (rand() > 10)
- A hozzászóláshoz be kell jelentkezni
Amelyik nem hasznalj metadata szervert, annak tokmind1, hany node, nem?
- A hozzászóláshoz be kell jelentkezni
Ezt kifejtenéd bővebben?
- A hozzászóláshoz be kell jelentkezni
Honnan szerzel quorumot 2 gép esetén? 2 >50%-a kerekítve pont kettő.
- A hozzászóláshoz be kell jelentkezni
Betesz egy gyenge gépet aki csak szavaz, de nem viseli a terheket! Esetleg a NAS/SAN-t vagy Quorum diszket használ.
--
Tertilla; Tisztelem a botladozó embert és nem rokonszenvezem a tökéletessel! Hagyd már abba!; DropBox
- A hozzászóláshoz be kell jelentkezni
A szavazás kevés ahhoz, hogy QUORUM konzisztenciájú legyen az adat...
- A hozzászóláshoz be kell jelentkezni
A vmfs és a csv elég stabilak, nem volt vele sose gondom.
Közös storage lesz alatta vagy local store csak?
- A hozzászóláshoz be kell jelentkezni
Helyi raid tömb dual primary DRBD-vel tükrözve a két node között.
- A hozzászóláshoz be kell jelentkezni
Nem vagyok ilyen megoldásokhoz szokva, mert általában ráfizetés.
clvm lesz a jó mivel ugyanaz a block eszköz már ott van mindkét oldalon
iscsi target mindkét hostra amit felveszel a lemezhez mindkét hoston, a többi már doksi mert ua, ott van már minden mindkét hoston
esetleg gluseter de rég nem tapasztaltam, de ez teljesen fs lesz drdb helyett is
Ha egyszerű és mások által használt megoldást is szeretnél használj proxmox-ot
- A hozzászóláshoz be kell jelentkezni
Bár ez nagyon más vonal, viszont az Általad elvárt képességeket elég jól lefedi és kevés reszeléssel nyújtja és olyan új, hogy még szinte meleg. :)
Szóval, úgy látom, itt az ingyenes Hyper-V Server 2016. Letölthető innen: https://www.microsoft.com/en-us/evalcenter/evaluate-hyper-v-server-2016
Üdv,
Marci
A Microsoftnál dolgozom.
- A hozzászóláshoz be kell jelentkezni
Gondolom ez is akkor működik jól, ha shared storage van alatta. Vagy képes az önálló node-okban lévő standalone diskeket egy közös tárolóként kezelni?
- A hozzászóláshoz be kell jelentkezni
Képes helyi lemezek közt is migralni.
Sajnos nem talaltam, ezt javaslom en is.
- A hozzászóláshoz be kell jelentkezni
Ha SMB3 feletti Shared VHDX-ra gondoltok, az csak 2016 guest (VHD set) esetén támogat backupot.
Ha Windows Server is lehet guest, akkor inkább DFS.
- A hozzászóláshoz be kell jelentkezni
Ha jól értem, a topicnyitó host clusterről beszélt, nem guest clusterről.
Üdv,
Marci
- A hozzászóláshoz be kell jelentkezni
Elnéztem a topicot, teljesen jogos amit írsz!
Elnézést.
- A hozzászóláshoz be kell jelentkezni
Oda se neki! :)
Üdv,
Marci
- A hozzászóláshoz be kell jelentkezni
Hyper-V Server 2012 óta van Shared Nothing Live Migration. Ehhez nem kell semmi közös, storage oldalon sem: a két független tároló közt az élő VM alatt át tudja helyezni a virtuális diszkeket, a memóriát, majd élesíteni az új hoston a VM-et, miközben lekapcsolja a régit.
Üdv,
Marci
- A hozzászóláshoz be kell jelentkezni
Pontosan. De mivel a storage nem ha alattuk mindenképpen rrplica is kell a fontos vm-ekrol nagyon sűrűn. Vagy backup, mindegy.
- A hozzászóláshoz be kell jelentkezni
Valóban erre szolgál Windows Server 2012 óta a Hyper-V Replica.
Üdv,
Marci
- A hozzászóláshoz be kell jelentkezni
Még egy plusz oka van amiért a hyper-v legyen a választott, vannak hozzá ingyenes backup eszközök amik könnyen használhatóak, pl veeam, 5nine.
Ha nem akarsz a drdb, clvm, kvm, libvirt világban elmélyülni egy éles rendszeren amiért felelős vagy akkor használj konzervet, ez úgyis a láthatatlan réteg lesz.
- A hozzászóláshoz be kell jelentkezni
Szerintem valassza azt az alaprendszert (OS, HW), amelyikhez ert.
- A hozzászóláshoz be kell jelentkezni
Tudnátok róla 2 node-os elrendezésben az előző hozzászólásomhoz hasonló performancia mérést végezni?
- https://cdn.kernel.org/pub/linux/kernel/v4.x/linux-4.8.4.tar.xz kicsomagolása 1. gépen
- rekurzív listázás ideje a 2. gépen
- ezek után a törlés ideje az 1. gépen
- A hozzászóláshoz be kell jelentkezni
Egy ilyen meres azert sok mindentol fugg, io, network, cpu pl, nem mindegy 1g van a 2 node osszekotve, vagy 10g-n pl...
Lehet naluk tok patent lesz a sebesseg ssdvel meg 10g-n. :)
"---------------------------------------------------
Hell is empty and all the devils are here.
-- Wm. Shakespeare, "The Tempest"
- A hozzászóláshoz be kell jelentkezni
Hyper-V esetén nem szükséges sem cluster, sem osztott storage a fent leírt funkcionalitás eléréséhez.
Mivel helyi diszken dolgozik, ezért jelentősen gyorsabb kell legyen a Hyper-V a fenti 2 node-os elrendezéshez képest.
Üdv,
Marci
- A hozzászóláshoz be kell jelentkezni
OK de azért ne hasonlítunk össze még egy 30 sec.es replikációt se egy megosztott hálózati tárolóra való írással, ez két külön kategória.
- A hozzászóláshoz be kell jelentkezni
Erről akkor tudnánk beszélni, ha tudnánk, hogy mi is a topiknyitó célja a clusterezéssel és mik az elvárások az üzemeltetett rendszerekkel szemben. Ugyanis műszakilag különböző paraméterű megoldások is megfelelhetnek az üzleti elvárásoknak.
Érdemes megnézni: milyen eseményekkor, milyen különbséget jelent, ha
-5 perces késleltetésű replikád van a gépről egy másik különálló host-on és storage-on vagy
-egy osztott storage-on található a virtuális diszk, melyet mindkét host elér
Szerintem messze nem jelenthető ki általános érvényűen, hogy egyik vagy a másik a jobb -- pedig mintha Te erre utalnál.
Ha pedig valóban kiderül, hogy az általam ajánlott kiépítéssel az elvárt szint nem biztosítható: akkor lehet Hyper-V Server-ből is Failover Cluster-t építeni, sőt a 2016-os verzióban itt a Stretch Cluster. Ennek segítségével shared storage nélkül is építhető cluster, a Storage Replica használatával.
Üdv,
Marci
- A hozzászóláshoz be kell jelentkezni
Utalom, ha az MS-esnek van igaza:/
- A hozzászóláshoz be kell jelentkezni
"Szerintem messze nem jelenthető ki általános érvényűen, hogy egyik vagy a másik a jobb -- pedig mintha Te erre utalnál."
Nem utaltam erre :) Arra utaltam, hogy almát a körtével ne hasonlítsuk össze. Mindkettő gyümölcs, de más az íze.
Abban igazad van, hogy a topikgazda csak azt írta, ő gyümölcsöt akar. Csak ezen a portálon gyümölcs alatt mindenki rögtön almát akar ajánlani. Jómagam amúgy inkább körtés vagyok. :) Nem is értem, ki és miért eszik még almát.... Jó tudom, az akinek konténeres linux virt kell.
Amúgy kösz, erről a Stretch cuccosról még nem hallottam de elég izgalmasnak tűnik, neki is állok megcsinálni a laborban.
- A hozzászóláshoz be kell jelentkezni
"Arra utaltam, hogy almát a körtével ne hasonlítsuk össze."
Egyetértünk, félreértettelek.
"elég izgalmasnak tűnik, neki is állok megcsinálni a laborban."
Kérlek, ha teheted, számolj be a tapasztalataidról!
Üdv,
Marci
- A hozzászóláshoz be kell jelentkezni
kvm cluster esetén nem shared filesystem szükséges, hanem shared storage. A shared storage ugyan megoldható shared filesystem fölött is, de minek? Plusz egy réteg, ami egy hiba lehetőséggel több és további munka a CPU-nak.
Ha nagyon szegény a büdzse és a két node bővítése tuti nem tervezett, akkor a legtakarékosabb megoldás, ha a helyi gépen egy szép nagy partíciót megkap a drbd, amely Primary/Primary felállásban egyszerre mindkét node-on elérhető. Erre akasztotok egy clvm-et, majd innen szakítgattok lvm köteteket a guesteknek.
Ha több pénz van rá, akkor mehet külön a shared storage - Ceph, Nexenta, stb. Hosszabb távon esélyesen ez az irány a nyerő, érdemes lenne ebbe az irányba evezni.
- A hozzászóláshoz be kell jelentkezni
anélkül, hogy utánaolvasnék árulja már el valaki, hogy melyik a jobb (és miért):
- 1db drbd kötet és efelett (c)lvm volume-ok
- több darab drbd kötet és direkt ezen a VM-ek
- A hozzászóláshoz be kell jelentkezni
1, kell valami ami kezeli clvm-et, pl pacemaker es 1db drbd-d van, ha azzal tortenik valami akkor mindet erinti.
Cserebe drbd-t egyszer bekonfiguralod es lvm-eket kell csak letrehoznod egyszeruen, igy kenyelmesebb ha beallitottad az alapokat, bar ha gond van vele akkor macerasabb lehet.
2, mindig letre kell hoznod drbd-t azzal a merettel amire szukseged van a vm-nek, de nem kell hozza pacemaker stb lock kezeles miatt, fuggetlenek a drbd-k, ha egyikkel tortenik valami akkor tobbi meg meguszhatja mukodokepesen. Szoval alapokat kevesebb melo osszerakni, meg hibajavitas egyszerubb lehet, de egyebkent macerasabb mindig egy drbd-t letrehozni, amit ha at kell meretezni esetleg szinten macerasabb.
- A hozzászóláshoz be kell jelentkezni
proxmox regen drbd over lvm-et hasznalt: egy syncelt drbd felett lvm-mel kiosztot akkora lv-t amekkorat kertel disknek, ilyenkor ugye drbd primary-primary modban futott ami, es a proxmox daemonnak kellett gondoskodnia hogy egy vm diskjet csak egyik helyen lehessen irni. ez persze nem mindig sikerult, ha lett egy splitbrain, meg kethelyen modosult disk, halal volt rendberakni a dolgokat. (ciki van ha pl ket vm diskje "serult" egyik vm a node1-en van masik vm cucca a node2-on, igy nem lehet siman csak egy discard-my-data-t nyomni drbd-nek)
az ujban lvm felett van drbd egyenkent, itt ugye nincs gond, mindig ott lesz primary ahol a vm fut, ha megis felbootol ketszer ugyanaz a vm, akkor csak eldontod melyik oldalon legyen az ervenyes data, es azzal a labbal fejbevered a secondary-t. a tobbieket nem erinti a synceles. a rendrakas igy konnyebb.
--
A vegtelen ciklus is vegeter egyszer, csak kelloen eros hardver kell hozza!
- A hozzászóláshoz be kell jelentkezni
- A hozzászóláshoz be kell jelentkezni
annyi drbd volume ahany vm _disk_. es mar drbd 9.
--
A vegtelen ciklus is vegeter egyszer, csak kelloen eros hardver kell hozza!
- A hozzászóláshoz be kell jelentkezni
- A hozzászóláshoz be kell jelentkezni
nem /proc/drbd-t kell nezegetni az allapot miatt, hanem "drbdadm status", mar tobbnode-os is lehet a drbd, stb.
--
A vegtelen ciklus is vegeter egyszer, csak kelloen eros hardver kell hozza!
- A hozzászóláshoz be kell jelentkezni
Ha nem akarsz Proxmox-ot akkor is lehet innen puskázni.
https://pve.proxmox.com/wiki/Two-Node_High_Availability_Cluster
--
Tertilla; Tisztelem a botladozó embert és nem rokonszenvezem a tökéletessel! Hagyd már abba!; DropBox
- A hozzászóláshoz be kell jelentkezni
kollegam az intezmenyi ubuntu csomagszerver ala 2 node-os Ceph clustert rakott. epp most van valami kernelnyug, ami miatt idonkent lerohad, de amugy jol megy, csak el kell fogadni, hogy minden tervezesi szabalyt felrugsz vele:)
- A hozzászóláshoz be kell jelentkezni