Sziasztok,
Szeretnék véleményt kérni arra, hogy több relatív kis gépet egy nagy, vagy több kis gépen volna-e érdemes virtualizálni.
Pontosabban, mondjuk
1db HP DL380g8, 2 fizikai CPU (sok mag) sok RAM, SAS lemezek, etc
vagy
1db ASUS twinblade
ebből van kicsi (single cpu) vagy nagy (akár dual E-series Xeon).
1db 2U házba 4db "blade"-et lehet rakni, blade-enként 3 lemezzel, ami lehet SATA v (külön vezérlővel) SAS.
mindkét esetben több mag lenne, mint amennyit elhasználnánk.
Főképp redundancia és teljesítmény miatt érdekelne a dolog. Ugye az Asus megoldás önmagában lehetne
redundáns, a HP-ból kéne mégegy...
vagy rosszul gondolom?
(paravirt lenne, valószínűleg 1 v 2 gép lenne ami több magot kapna, a többiek akár osztozhatnak a maradékon)
Köszi a tippeket :-)
- 10882 megtekintés
Hozzászólások
Ha redundancia, akkor az egy vasas megoldás már eleve nem teljesíti ezt a kritériumot.
- A hozzászóláshoz be kell jelentkezni
- A hozzászóláshoz be kell jelentkezni
s/Asus/Supermicro amire gondolsz szerintem.
Egyébként egyértelmű h. twinblade, mondjuk proxmox-al. N+1 node kell legalább ha "magas rendelkezésre állást" akarsz. Persze ha clusterelsz akkor N>=3.
- A hozzászóláshoz be kell jelentkezni
Ez igy mind szep es jo, de a teljes redundanciahoz redundas storage is kell. A nyito hozzaszolas pedig csak lokalis storage-ot emleget.
- A hozzászóláshoz be kell jelentkezni
Példul a Hyper-V is tud valamilyen local storage -es szinkron-t, tehát ez nem feltételnül igaz. Nyilván a backuphoz kell valamilyen független megoldás.
Na még HUP-os hír is volt: http://hup.hu/promo/20120924/a_windows_server_2012_megjelenesevel_egy_i…
- A hozzászóláshoz be kell jelentkezni
Az 5 perces aszinkron replikalasra gondolsz?
- A hozzászóláshoz be kell jelentkezni
Arra gondoltam, de csak mint tipp. Azt jól tudom, hogy a közös storage és a storage duplázása ÉS az arról készülő sűrű mentés az igazi, de általában ezek itthon csak messzi célként lebegnek az anyagi keretek miatt.
- A hozzászóláshoz be kell jelentkezni
Ha a Replica ficsörre gondolsz, akkor azt nem ajánlanám, ha nem MS gyártmányú SQL szerver fut a gépen. Ebben az esetben inkább alkalmazás szinten kell megoldani a redundanciát. Ha viszont a Shared-Nothing migrációra, akkor az pedig értelemszerűen azt feltételezi, hogy a költözéskor az eredeti host még működik. (Nem pedig kihúztad alóla a 220-at.) Ha meg a Scale-Out fileszerverre (ami egyébként jó lenne), azt sajnos nem tartalmazza a Hyper-V 3.
A kérdezőnek: össz-vissz két db hosttal nem tudsz normális failover clustert csinálni, a split-brain probléma miatt. Legalább 3 kell.
- A hozzászóláshoz be kell jelentkezni
split-brain: diszket nem lehet betenni harmadik tagnak? (bocs, VMS-en nőttem fel, de még HPUX-on is ment)
- A hozzászóláshoz be kell jelentkezni
Dehogynem, abszolút lehet diszk is a quorum, de azt is bele kell dugni valamibe. :) No örülök, hogy legalább egyvalaki elolvasta, mentem csobbbanni
- A hozzászóláshoz be kell jelentkezni
Szóval akkor lehet két hosttal, meg valami közösen elérhető SCSI vezérlőkkel. ;)
- A hozzászóláshoz be kell jelentkezni
Két HP vas esetén DRBD sync-re gondoltam.
A twinblade esetén vagy az, vagy vmi "épített" iSCSI alapú megoldásra hajlanék.
- A hozzászóláshoz be kell jelentkezni
Azert a DRBD-vel ovatosan kell banni, ha az ember nem figyel, felezi a teljesitmenyt.
--
Ki oda vagyik, hol szall a galamb, elszalasztja a kincset itt alant.
- A hozzászóláshoz be kell jelentkezni
- A hozzászóláshoz be kell jelentkezni
disk drain a kulcsszó kb.
Egyébként játszik még barrier és flushes. :)
- A hozzászóláshoz be kell jelentkezni
Drbd-vel meg lehet azért tákolni.
3. node csak qourum, vagy ha nagyon bátor akkor drbd9 :)
- A hozzászóláshoz be kell jelentkezni
Mondjuk ganeti-vel megspékelve nem látszik annyira a tákolás :)
- A hozzászóláshoz be kell jelentkezni
proxmox elvileg tamogatja a Sheepdog-ot
--
A vegtelen ciklus is vegeter egyszer, csak kelloen eros hardver kell hozza!
- A hozzászóláshoz be kell jelentkezni
én erre gondoltam. A SuperMicro is nagyon jól hangzik, DE azt csak FULL kiépítésben LEHET megvenni. (8 v 12 node asszem).
- A hozzászóláshoz be kell jelentkezni
Eppenseggel nem:)
tompos
- A hozzászóláshoz be kell jelentkezni
- A hozzászóláshoz be kell jelentkezni
http://www.supermicro.com/products/nfo/Twin.cfm
Ez nem 8-12, csak 2-4-6 node.
Uresen nem veheted meg, csak akkor, ha az azt jelenti, h nincs benne CPU, RAM, HDD.
Miert, az Asus-t meg tudod venni, uresen, alaplapok nelkul, lenyegeben csak a hazat?
Annak mi ertelme van?
A 8-12 node-os termeket MicroCloud-nak hivjak:
http://www.supermicro.com/products/nfo/microcloud.cfm
tompos
- A hozzászóláshoz be kell jelentkezni
Igen, az Asus-t elvileg meg lehet venni ház+1 "blade" szettben is.
Annyi értelme van, hogy 2 táppal, 2 lappal nem sokkal drágább mint 2x1U nemredundáns
vas, és IP-KVM-től kezdve minden van benne. (persze, CPU és RAM nélkül vehető ez is)
Ezzel nem azt akarom mondani,h jobb, mint a SuperMicro, de indulásból lehet, h olcsóbb.
- A hozzászóláshoz be kell jelentkezni
Tobbszor elolvastam, de nem tudom ertelmezni a leveled.
Mi az a nemredundans vas? Vagy epp milyen a redundans?
> CPU es RAM nelkul veheto
Most akkor meg lehet venni 1 node-dal vagy nem? Vagy miert lenyeges ez?
> lehet, h olcsóbb
Persze, h olcsobb, mivel az Asus (gondolom) olcsobb, mint az SM, fuggetlen attol, h blade v. nem.
tompos
- A hozzászóláshoz be kell jelentkezni
Szóval, az ASUS twinblade, 2 blade-el (a 4ből) nem sokkal többe fáj, mint egy barebone server amiben nincsen 2 táp. (esetleg IP KVM se)
Ebben pedig a táp redundáns, talán a hűtés is.
Tulajdonképpen jelen állításnak az lett volna a lényege, hogy a twinblade setup (akár Asus, akár SuperMicro) két blade-el nem kerül sokkal többe, mint azonos gyártótól megvásárolt 1U barebone server.
Cserébe előbbi konfigurációban van redundáns táp, és IP KVM (ill. bővítési lehetőség) utóbbiban nincs.
Azaz 2 node esetén picit drágább, 4 node esetén már olcsóbb.
- A hozzászóláshoz be kell jelentkezni
> Tulajdonképpen jelen állításnak az lett volna a lényege, hogy a twinblade setup (akár Asus, akár SuperMicro) két blade-el nem kerül sokkal többe, mint azonos gyártótól megvásárolt 1U barebone server.
Igy mar erthetobb
> Cserébe előbbi konfigurációban van redundáns táp, és IP KVM (ill. bővítési lehetőség) utóbbiban nincs.
SM-nel szerintem mar talan nem is lehet IPMI nelkul gepet venni.
Viszont HDD 3 megy bele, az 1U-os 4-gyel szemben.
t
- A hozzászóláshoz be kell jelentkezni
3 vs 4 hdd - igen.
raid1+hotspare v raid5
ahol ennél többre van szükség (mondjuk IO miatt) ott szerintem SSD v storage van.
(azaz blade-nél szerintem több, mint elég)
- A hozzászóláshoz be kell jelentkezni
Amikor matekoltam Supermicro-t, az jött ki, hogy minél több gépet akar az ember, jobban megéri a pizzásdobozok helyett microcloud, majd utána egy szint felett blade.
----------------
Lvl86 Troll, "hobbifejlesztő" - Think Wishfully™
- A hozzászóláshoz be kell jelentkezni
A microcloud-ot hogy sikerult idekeverni? Eg es fold: a microcloud-ba 1 CPU es 32G ram fer maximum.
tompos
- A hozzászóláshoz be kell jelentkezni
Bocs, twin es fattwint akartam irni, csak siettem.
---------------
Lvl86 Troll, "hobbifejlesztő" - Think Wishfully™
- A hozzászóláshoz be kell jelentkezni
Az igen, lathatoan az SM is igy tervezte el.
t
- A hozzászóláshoz be kell jelentkezni
van chassis amit megvehetsz uresen, talan meg node-t is kapsz hozza - de ezen kivul meg vadaszni kell hozzavalokat...
- A hozzászóláshoz be kell jelentkezni
Ezekbe a "blade"-s szerverekbe nekem csak az nem tetszik, hogy egy darab redundáns tápon osztoznak az egységek. Ha például zárlatos lesz az egyik blade, akkor magával ránthatja a tápokat és így a többi egység nem tud menni. Gondolom ilyen ellen van mindenféle védelem és csak én vagyok ennyire paranoriás :D
- A hozzászóláshoz be kell jelentkezni
A hutes sem mindig teljesen redundans - ugyan menet kozben cserelheted - de amig hibas, elfordulhat, hogy le kell kapcsolnod tobb node-t is...
- A hozzászóláshoz be kell jelentkezni
Elvonatkoztatva a fenti konfigoktól, generálisan:
Ha kevesebb nagy gépet használsz, akkor több erőforrás esik ki egy gép kiesésekor, ez vastag vas esetén akár 200 virtuális gép költöztetgetését is jelentheti. Viszont pozitívum, hogy kisebb az erőforrás fragmentáció (ugye ha van X nagyságú géped, akkor 2/5-öd X méretű virtuális gépből elfér rajta 2, és 1/5-öd erőforrás ment pocsékba. Ha 3X nagyságú géped van, akkor elfér 7 db, és ugyanúgy 1/5-öd X marad ki, ami a gép méretéhez képest nézve 1/15-öd, azaz a veszteség százalékos arányban jóval kisebb)
Személy szerint már billegek. Régen a nagyvasakat preferáltam, de a blade-ek teljesítménye is akkora lett, hogy a "nagyvas" már irreálisan nagy, így nagyon sok mindenre elég 2 node, ami meg 50% kiesést jelent egy patch vagy hw error esetén. A gépméretet én nagyjából oda lőném be, hogy minimum 3 node összejöjjön klaszterenként, de elég nagyok legyenek a node-ok az átlagos virtuális gép méretéhez képest, azaz nem is apróznám el. Ha 10 virtuális gép alatt fér el egy szerveren, akkor az nagyon kicsi, ha 100 fölött, akkor meg túl nagy (és úgyis kinyírja a performanciát a context switch függetlenül attól mekkora proc és mem van benne)
- A hozzászóláshoz be kell jelentkezni
jelenleg az egyik vason ~75 VM-em van, nincs problema a performanciaval
- A hozzászóláshoz be kell jelentkezni
Ha szerencséd van, akkor sokszáznál sem lesz, ilyen pl a VDI, ahol azonos windows-ok esetén egyszer kerül a bináris a memóriába, és vm-enként csak a pointerrel játszik a vmware. De egy nagyon vegyes környezetben (win,lin,32/64 bit, sokféle alkalmazásprofil) esetleg megspékelve sokszálas kiszolgálókkal mint webszerver és sok kapcsolatos db szerver, ott már alacsonyabb számnál gond lesz. Megjelenik az I/O wait-ben a hálózatra várás, a sw interrupt-ra várás 0-nál nagyobb lesz,és még egy login ablakra is hosszú ideig kell várni úgy, hogy közben látszólag a cpu, mem, diszk terhelések mind 80% alatt vannak. Ugyanaz a dl580g7 bírt röhögve 200 vm-et, mint ami csuklott már 80-nál is. Az hogy neked mennyi megy,az csak és kizárólag az adott környezetre mérvadó.
- A hozzászóláshoz be kell jelentkezni
tapasztalataim alapjan az elso ami elfogy, az a memoria. ha ezt at lehetett hidalni, akkor utana a diszk IO. a tobbivel nem szokott problema lenni.
- A hozzászóláshoz be kell jelentkezni
Lehet ezt még ragozni. Két node esetén egyértelmű, hogy 100%-al felül kell tervezni, ennyi erőforrás (ram,i/o,cpu) a "pocsék".
Több tagú fürt esetén viszont el lehet gondolkozni rajta, összesen hány node kiesését engedem meg. Arra célzok, hogy ha egy 10 tagú clusterben 3 node kiesésére tervezek, ott akkor kb. 25%-al kell felültervezni mind a 10 vasat. A végső költség pedig megközelítheti ugyanazt a nagyságrendet, mint az első esetben.
20 tagú cluster esetén ugyanez a szám már csak ~6%. Ez már annyira kicsi, hogy gyakorlatilag nem is kell a méretezésnél figyelembe venni. YMMV
- A hozzászóláshoz be kell jelentkezni