lvm2 + clvm + gfs

Fórumok

Sziasztok!

Korabban kiprobaltam a drbd8 (master-master) + ocfs parost de ugy latom, hogy a drbd csak 2 gepet kepes osszekapcsolni.

Ezert szeretnem kiprobalni az lvm2 + clvm + gfs harmast egy debian rendszeren (kesobbiekben legalabb 3 geppel).
Az interneten probaltam valamilyen dokumentaciot keresni de sajnos keves sikerrel...A redhat dokumentaciok kozott egy redhat specifikus grafikus feluleten keresztul csinalja vegig az egesz konfiguraciot. Ha lehet akkor en szeretnem elkerulni a grafikus feluletet es tisztan a konfig fajlok megirasaval osszerakni az egeszet.

Csinalt mar valaki ilyet? Egyaltalan lehetseges igy megcsinalni?

A valaszokat elore is koszonom.

Hozzászólások

Lenne megegy kerdesem a clvm-el kapcsolatban.

Nem tiszta szamomra a clvm feladata. Tulajdonkeppem mit is csinal?
Ha jol ertettem akkor egy "kiegeszites" az lvm2 folott annak erdekeben hogy cluster kornyezetben lehessen hasznalni. Tehat akkor lehet vele egy halozaton szetosztott blokk eszkot kesziteni? (pl. tobb gepen levo lokalis lvm szetosztasa a halozatton keresztul /kozos blokk eszkoz?/ ) Hasonloan a DRBD-hez? Es akkor erre kerul a GFS?

--
maszili

Ertem. Tehat akkor nem az lvm-en tarolt adatokra vonatkozik hanem az lvm mint szolgaltatas osszehangolasara a node-ok kozott.

Akkor igy mar ertem, hogy miert nem "kozos" a GFS fajlrendszerem. Ezek szerint kellene egy szolgaltatas ami "atviszi" az adatokat a nodok kozott. Hasonloan a DRBD-hez.

Erre van valamilyen megoldas?, ami nem a DRBD?

--
maszili

Szia!

Mar mi? A DRBD+ vagy a fennti kerdes?

Amennyiben a fennti kerdesre vonatkozik, N node eseteben a DRBD[+] helyett barmilyen halozat feletti storage megoszto technika johet szoba. Pl. gnbd, aoe(vblade), iscsi, ...

Biztonsag vegett pl. DRBD+heartbeat/failover+fenntiek kozul valamelyik...

Gergo

A DRBD (master-master) + OCFS2 megoldassal sajnos rossz tapasztalataim vannak. Ha elfogy (erosen terhelt a rendszer) a processzor akkor teljesen szetesik az egesz.

Valamint szeretnek tobb gepet ilyen kozos fajlrendszerrel hasznalni. A DRBD szabadon hasznalhato valtozata sajnos csak 2 gep eseten mukodik.

Ezert probalok mas megoldasok utan nezni...
Mindenkeppen olyan megoldast szeretnek ami teljesen szetosztott... tehat nincs egy kituntetett szereploje a rendszernek.

--
maszili

Szia!

A megoldando feladat a diszkek elerhetove tetele a node-okon. Ehez hasznalhatod a DRBD8 master-master modjat (2 node) vagy barmelyik korabban emlitett technikat (gnbd, vblade, iscsi, ...). Amennyiben az utobbiak kozul egyedul hasznalsz valamit a gond a master gep (amelyikben a diszk) kiesese, ugyanis ilyenkor eltunik a megosztott diszk. Erre irtam lehetseges megoldas keppen, hogy alatta DRBD (akar 7-es) -t hasznalsz, ezaltal megduplazod a diszk szerver-ek szamat. Ezek kozul linux-ha -ban talalhato heartbeat segitsegevel kikinalod az aktivat (pl. ip failover-el) es a node-ok ezt mountoljak.

Az igy megosztott diszk tetejere aztan olyan cluster fs-t raksz, amelyik tetszik.

Egy nagyon igeretes project, sajnos regota inaktiv:

DDRaid: Distributed Data Raid
http://sourceware.org/cluster/ddraid/

Gergo

Kozben veletlenul raakadtam erre...

http://www.gluster.org/docs/index.php/GlusterFS_High_Availability_Stora…

Ezt kiprobaltam, mukodik:
http://www.gluster.org/docs/index.php/Automatic_File_Replication_%28Mir…

Most osszerakok egy 4 gepes clustert es meggyotrom egy kicsit, hogy milyen az eroforras hasznalata illetve hogy, hogyan turi a meghibasodat (ethernet kabel menet kozben kihuz, stb...)

--
maszili

Osszeraktam a 4 gepes clustert... pofon egyszeru. Sajnos ido hianyaban nem tudtam alaposabban letesztelni csak erre futotta...

- Mind a 4 gepen egyszerre irtunk a cluster teruletre kulonbozo fajlokba (dd if=/dev/null of=/mnt/test.txt)
- Mind a 4 gepen egyszerre irtunk a cluster teruleten egy fajlba (4 szkript kimenete egy fajlba)
- Teleirtuk a particiot ugy hogy elfogyjon a hely
(nem doglott bele...a hely felszabaditasa utan minden rendesen mukodott)
- Menet kozben szethuztuk a halozati kabelt igy megszunt a kapcsolat
(visszadugas utan ott folytatodott az irasi teszt ahol abbamaradt)

Ezen tesztek alatt az eroforras hasznalat (CPU, MEM, NET) elhanyagolhato volt.

Holnap egy kicsit jobban megvizsgalom a rendszert... esetleg ha van valakinek otlete, hogy mit (hogyan) erdemes megvizsgalni akkor azt megkoszonnem.

Az eredmenyeket mar nem ide hanem egy masik topikba megirom, amennyiben igeny van ra.

--
maszili

Meg lehet csinálni és a konfigurálásához nem kell a GUI. Követve a leírást viszonylag könnyen telepíthető, amin picit dolgozni kell, az a RedHat specifikus (init) script-ek átírása.

Az idei Networkshop-on épp erről beszéltem, az előadás a vod.niif.hu-n majd elérető lesz a slide-okkal együtt.

Esetleg ezt is érdemes megnézni. Igaz az alapötlet több, mint 3 gépre készült, de a leírás szerint akár 2-vel is működik.

mi is epp ma csinaltunk lvm2 + gfs2 + clvm okossagot, egyelore nagyon bejovos :)

t