Tudom, hogy egyre divatosabb használni annyira, hogy már-már ciki, ha valaki natív futtatja az OS-t.
Kérdésem:
Megéri használni egy vason több OS-t úgy, hogy a diszkek sebessége a 10 évvel ezelőtti színvonalról máig nem lépett jelentősen előre?
(Azt gondolom, hogy már vagy 6-8 éve is a diszk volt a szűk kereszt metszett a számítástechnikában.)
Érdekelnének a tapasztalatok, diszk használat terén. (pro/kontra)
- 10010 megtekintés
Hozzászólások
Ja.
- A hozzászóláshoz be kell jelentkezni
Első?
- A hozzászóláshoz be kell jelentkezni
+1
--
Dropbox:
https://www.getdropbox.com/referrals/NTI3NzY1ODQ5
- A hozzászóláshoz be kell jelentkezni
Azért egy 15k RPM-es SAS raid tömb igen izmos tempót tud hozni a 4-5-6 évvel ezelőtti állapothoz képest is. :)
Ha nagyon-nagyon IO igényes a cuccod, akkor még mindíg ott van a teljes PCI passthrough vagy a scsi passthrough ha a hipervigyor támogatja.
A tapasztalat az, hogy néhány kisebb IO igényes cuccot elég lazán lehet virtualizálni. Ahol már látványos az IO igény oda kell valami normális storage, de ezt elég könnyen be lehet lőni.
- A hozzászóláshoz be kell jelentkezni
nem kell oda 15krpm SAS, vigan tudok olyan diszktombokrol, amik SATA diszkekbol vannak felepitve, es futkorasznak izmos sebesseggel.
persze en mostanaban az SSD-s raidet javaslom ilyen ala, ha annyira fontos a sebesseg, es van penz. vagy vegyesen, egy raid tomb ssdvel, egy raid tomb normal diszkekkel, es akkor megvan a flexibilitas is.
(semmibe nem kerul manapsag venni 8db 120g -s ssdt)
- A hozzászóláshoz be kell jelentkezni
8x250USD azért több, mint semmi. :)
(http://www.amazon.com/Intel-Internal-Technology-2-5-Inch-SSDSA2MH120G2K…)
A SAS 15k-s diszkeket a SCSI-val gondoltam párba állítani.
- A hozzászóláshoz be kell jelentkezni
300k azert nem olyan sok penz, amennyiben nem pistike virtualizal a kulcsszo... vagy lehet en jartam eddig rossz helyeken :)
- A hozzászóláshoz be kell jelentkezni
A kapott mérethez képest szerintem relatív sok. Nyilván ha kell a sebesség, amit 8 SSD hoz együtt, akkor ez van. :)
Szerintem kevés kivételtől eltekintve, a pénzügyi vezetés tetszőleges helyen csak jól indokolt 300e-s kiadást hagy jóvá.
- A hozzászóláshoz be kell jelentkezni
hát nemt udom, egy cégnél 300k annyira kis összeg, hogy többet veszít az ember (időben, idegességben, foglalkozni kell vele, etc.etc.), ha leáll matekozni azon, hogy hogy lehetne kicsit olcsóbban kihozni, minthogy egyszerűen csak rábólint "vegyétek!" felkiáltással...
- A hozzászóláshoz be kell jelentkezni
Hozzáállás kérdése... 300K olyan eszközre, ami OK, hogy gyors, de időtállósága, tartóssága nem bizonyított!? (SSD) Nevezzetek hülyének, vagy konzervatívnak, de (egyelőre) maradnék inkább a jól bevált SATA/SAS lemezeknél töredék pénzért.
- A hozzászóláshoz be kell jelentkezni
ez olyan, mint ha a bobcatet hasonlítanád a 16 tonnás rendes caterpillarhoz.
az egyik erre jó, a másik arra jó, és amire az egyik jó, arra a másik vagy nem igazán jó, vagy egyáltalán nem alkalmas.
a "jól bevált" sata/sas diszkek bizonyos feladatokra jóval drágábbak, bizonyos feladatokat pedig sehogy sem tudnak elvégezni. ahogy bizonyos feladatokra az ssd lesz drága/alkalmatlan.
- A hozzászóláshoz be kell jelentkezni
Abszolút igazad van, azt kell, hogy mondjam - nekem ezt hiába írod. Olvasd "felülről" a szálat :P /Andrej SAS; NagyZ SATA-SSD/
- A hozzászóláshoz be kell jelentkezni
a dragat ertem az ssdvel kapcsolatban, de szted mi az a feladat, amire alkalmatlan?
- A hozzászóláshoz be kell jelentkezni
Nem alkalmatlan de sehol nem fogja behozni az arat: backup v. mas nagy es viszonylag lassu storage jellegu felhasznalas.
tompos
- A hozzászóláshoz be kell jelentkezni
ez igaz. nem is ez erdekelt, hanem konkretan szerintem nem letezik olyan workload, ahol vegtelen penz mellett az SSD barmiben rosszabb lenne; ezert voltam kivancsi, h vl mire gondolt alkalmatlan alatt.
- A hozzászóláshoz be kell jelentkezni
2x
- A hozzászóláshoz be kell jelentkezni
Pl. állíts elő 30TB kapacitást SSD-ből emberi méretben. Valós igény, anyagilag, de fizikailag is a megvalósíthatóság határait fogod feszegetni.
- A hozzászóláshoz be kell jelentkezni
anyagilag meg oke, de fizikailag? :)
- A hozzászóláshoz be kell jelentkezni
Van egy 10x faktor az egység helyre bezsúfolható diszk és SSD kapacitása között; nyilvánvaló, hogy egy 150 diszkes SSD sokkal több helyet foglal el (és egyéb logisztikai problémákat is felvethet), mint egy 15 diszkes tömb.
- A hozzászóláshoz be kell jelentkezni
ertem, de ettol meg messze nincsenek fizikai korlatok itt sem. minden csak penz kerdese.
ha az alkalmatlan alatt az "anyagilag hulyeseg lenne ilyet venni"-t erted, egyertek. de mas szemponbol szerintem nincs olyan dolog, amire egy HDD alkalmas, egy SSD meg nem.
- A hozzászóláshoz be kell jelentkezni
Nem fér el ugyanakkora kapacitás ugyanakkora helyen. Ha az egyéb paraméterek adottak (mondjuk fizikailag nem fér el nagyobb kasztni, abba fizikailag nem fér több diszk), akkor van olyan szituáció, ahol egyszerűen nem tudod használni. És ez egy technológiai korlát, ami idővel vagy enyhül, vagy nem.
- A hozzászóláshoz be kell jelentkezni
A kapacitás nem minden. Vannak olyan felhasználási területek, ahol nem használnak sok adatot, de azokra nincs idő sokat várni. Ezesetben sok SSD sokkal hatékonyabb lehet, mint kevés, de nagy kapacitású HDD.
- A hozzászóláshoz be kell jelentkezni
a "jól bevált" sata/sas diszkek bizonyos feladatokra jóval drágábbak, bizonyos feladatokat pedig sehogy sem tudnak elvégezni. ahogy bizonyos feladatokra az ssd lesz drága/alkalmatlan.
Arról szólt a thread itt, hogy az árán kívül van-e olyan paraméter, ami miatt az ssd valami konkrét feladatra alkalmatlan. Erre leírod, hogy létezik olyan feladat, amire alkalmas és hatékonyabb. ???
- A hozzászóláshoz be kell jelentkezni
Ööö..., rendben. Irásintenzív alkalmazás? Nagymennyiségű adatfolyam soros írása? Tudtommal ilyen esetekben nem az SSD a nyerő.
- A hozzászóláshoz be kell jelentkezni
SSD-bol is vannak mar eleg szep tarteruletet biztositok.
tompos
- A hozzászóláshoz be kell jelentkezni
> szted mi az a feladat, amire alkalmatlan?
echo 0 > /sys/block/${SSD}/queue/add_random :-)
- A hozzászóláshoz be kell jelentkezni
Ahogy mondod sok SATA disk SAS-t győz :D
egy sun x4500 asban 48db 500G-s disk zfs el szép eredményeket produkál.
Ubuntu 10.04, Thinkpad x61s
- A hozzászóláshoz be kell jelentkezni
imadtam azt a gepet. :)
- A hozzászóláshoz be kell jelentkezni
nezzunk par scenariot
Kiindulo allapot:
kell 20 szolgaltatas. Ebbol 1 nagy teljesitmeny-igenyu, 19 kis teljesitmeny-igenyu.
1) Felpakoljuk 1 vasra, 1 oprendszer ala mind a 20 szolgaltatast.
- > a legjobb teljesitmenyt ered el, de a legeslegjobban kell beallitani azt az oprendszert. Ez neha kemeny kihivas.
2) Felpakoljuk 2 vasra, vasankent 1 oprendszerrel. nagyot az egyikre, kicsit a masikra
-> legkevesebb tudas eleg hozza
3) Felpakoljuk 20 vasra, vasankent 1 oprendszerrel. Mindegyik szolgaltatast kulon.
-> legtobb penz kell hozza, es a legtobb rendszergazdai ido
4) Felpakoljuk 1 vasra, hypervisorra, valahany oprendszerre szetszorjuk a szolgaltatasokat
-> picit dragab vas kell hozza, mint az 1 esetben, de kevesebb tudas eleg.
-> tobb tudas kell, mint a 2-ben, de kevesebbe kerul a vas.
-> kevesebb ido kell hozza, mint a 3-ban, de kisebb a rendelkezesreallasa
A virtualizalas egy jo atlag, hogy azzal szivjal, amivel szeretsz.
:-)
figyuzzatok man, semely oprendszernek, semely hypervisornak nincs abszolult teljesitmenyigenye, alkalmazasnak van! Az oprendszereknek es hypervisoroknak overheadjuk van (szazalek), amit hozzatevodik a szolgaltatas igenyehez.
Az IT ipar (te, a rendszergazda) pedig nem hardvert vagy oprendszert uzemeltetsz, hanem szolgaltatast. Es a ceget igazabol nem erdekli, hogy az a szolgaltatas min fut, hanem az, hogy fut-e.
- A hozzászóláshoz be kell jelentkezni
3) <- Nekem ez false pozitívnak tűnik.
"20 OS natív VS 20 OS virtualizálva"
- Miért kevesebb idő adminolni, ha virtualizálva van amikor van alatta még egy host szerver is?
- Miért lenne 1 szerver biztonságosabb mint 20?
- A hozzászóláshoz be kell jelentkezni
Az észrevételed jogos, természetesen nem egy servert használ az ember virtualizáláskor, hanem legalább kettőt, clusterben. Az adminisztrálás annyiból egyszerűbb, hogy a guestek egyféle gépen futnak, elég egyszer installálni egy master változatot, majd klónozni.
Mivel éles környezetben virtualizálni cluster nélkül botorság, ezzel ne is foglalkozzunk. Clusterben viszont magas rendelkezésreállást biztosíthatsz olyan környezeteknek is, amelyek erre esetleg alkalmatlanok, vagy ahol egy cluster megoldás bonyolultabb, mint a virtualizációs környezeted alatt.
Ezenkívül virtualizált környezetben könnyebben megoldható az erőforrások managementje. Időszakos terheléssel járó rendszerek csak akkor kapják meg az extra erőforrásukat, amikor erre szükségük van. Így megoldható, hogy éles és teszt környezetek olcsóbb vason fussanak, amennyiben a teszt környezetek leállíthatóak az éles csúcsrajáratása közben. Spórolhatsz az erőforrásokkal úgy is, hogy guestek különböző hostokon futnak, ám valamely host leállása esetén az alacsonyabb prioritású guesteket leállítod, így a megmaradt hostok probléma nélkül szolgálják ki a fontos guesteket.
Vannak cégek, ahol a servereket csak három évig használják, amíg a bővített garancia él, majd kivonják éles üzemből. Virtualizált környezetben ez a váltás a felhasználók számára észrevétlenül oldható meg és az üzemeltetés terhelése is alacsonyabb, hiszen az új vasat kevesebb időráfordítással állíthatod üzembe, mintha minden vackot újra fel kellene installálnod (OS, alkalmazások, felhasználók...)
- A hozzászóláshoz be kell jelentkezni
Köszönöm a kimerítő választ. Végre megértettem, hogy mire való.
- A hozzászóláshoz be kell jelentkezni
Nekem is évekbe került. :-)
Az eredeti kérdéshez még annyit, hogy nem szokás egy disken virtualizálni, vállalati környezetben, hozzáértő üzemeltetés esetén természetesen. Virtuális környezetek alá érdemes valamilyen intelligens tárolót pakolni, ami az adatokat sok disken kezeli, párhuzamosan. Mondjuk clusteres környezetben ez nem kérdéses, bár két host között még JBOD-ot is meg lehet osztani, három vagy több host esetén ez már elég nehézkes vagy lehetetlen.
Természetesen minden esetben meg kell vizsgálni, hogy megéri-e egyáltalán? Pár éve még érvényes volt az a mondás, hogy adatbázist nem virtualizálunk, mivel adatbázis alatt nincs túl sok erőforrás és bármilyen virtualizáció csak lassíthatja a működését. A paravirtualizált eszközmeghajtóknak köszönhetően viszont ez az állítás egyre kevésbé igaz.
Ave, Saabi.
- A hozzászóláshoz be kell jelentkezni
Általánosságban pár éve sem lehetett kijelenteni, hogy adatbázist ne futtassunk virtualizálva. Nyilván egyre kevésbé, de mindig meg kell nézni, hogy ki mit virtualizál, valamint az alatta levő infrastruktúrát is megfelelően kell méretezni (ha azt mondjuk, hogy a virtualizáció levesz 10% teljesítményt, akkor többlet teljesítménnyel ezt lehet kompenzálni annak érdekében, hogy élvezzük a virtualizáció előnyeit).
- A hozzászóláshoz be kell jelentkezni
Azért az IO sebességet nem feltétlen tudod újabb IO interface-ek üzembeállításával növelni. És ez pláne igaz, ha latency-ről beszélünk.
- A hozzászóláshoz be kell jelentkezni
Igaz, nem mindig lehet, ezek a rendszerek az erőteljes minoritást képezik (tudom, például egy Google vagy hasonló fürt esetén nyilván nem).
- A hozzászóláshoz be kell jelentkezni
Mármint minoritás azon virtualizált adatbáziskezelők száma, amelyeknek problémát okoz a megnövekedett válaszidő a diskek felől?
Ez tökmindegy, attól még a probléma fennáll és ha az embernek épp egy ilyen rendszert kell gatyába ráznia, akkor a legkevésbé érdekli, hogy ilyenből azért nincs sok.
Ave, Saabi.
- A hozzászóláshoz be kell jelentkezni
A banánhéj is akkor veszélyes, ha rálépünk, ha futunk, akkor pláne.
Az "előfordul olyan rendszer, ahol a virtualizáció miatti válaszidő növekedés elfogadhatatlan" és a "Pár éve még érvényes volt az a mondás, hogy adatbázist nem virtualizálunk" között elég nagy szakadék van.
Ekkora erővel abba is bele lehet kötni, hogy "akkor többlet teljesítménnyel ezt lehet kompenzálni", hiszen ha az úgymond maximális fizikai vas ki van hajtva csutkára (mondjuk CPU szempontból nem is nehéz: ha 8 magnál nagyobb rendszerről beszélünk), akkor 1-1 nem virtualizálható a rendszer. Ilyen ma is van, valószínűleg a jövőben is lesz, amíg nem korlátlan a VM-be konfigurálható magok száma.
De még ez esetben is meg lehet akár azt nézni, hogy némi fürtözéssel/terhelés elosztással mi a helyzet, ismét a régi klasszikust tudom idézni: http://blogs.vmware.com/performance/2008/06/scaling-real-li.html
- A hozzászóláshoz be kell jelentkezni
(ha azt mondjuk, hogy a virtualizáció levesz 10% teljesítményt, akkor többlet teljesítménnyel ezt lehet kompenzálni annak érdekében, hogy élvezzük a virtualizáció előnyeit).
A virtualizáció 99%, hogy nem százalékos teljesítmény csökkenést okoz, hanem nagyjából per I/O request latency növekedést. Azt meg egy határon túl nem tudod kompenzálni, mert 0, vagy negatív idő alatt válaszoló diszkegység kellene hozzá, ami elméletben sem lehetséges.
- A hozzászóláshoz be kell jelentkezni
SUM()
Azt hiszem megállapíthatjuk azt, hogy csak bizonyos számú szerver felett érdemes ezen a fajta migráción gondolkodni.
Vagyis, ha a jelenleg meglévő szerverek száma több, mint az új cluster.ben szereplő szerverek száma és összes bekerülési költségük szintén több, mint n db csúcs szerver + diszkalrendszer, akkor a választás ez utóbbira kell, hogy essen és a régi szolgáltatásokat virtualizációba migrálva lesz érdemes futtatni.
- A hozzászóláshoz be kell jelentkezni
Marmint bizonyos szamu milyen szerver? Virtualis vagy fizikai?
Masreszt mint leirtak sokan, ez egy soktenyezos jatek, bekerulesi kotseg csak egy tenyezo.
tompos
- A hozzászóláshoz be kell jelentkezni
Ez egyáltalán nem ilyen egyértelmű. A képletbe az üzleti igényeket kell belefoglalni (ami vagy teljesített virtualizációs gondolkodáskor, vagy sem), az pedig praktikusan nem (csak és kizárólag) szerverek számában fejezhető ki.
Az üzleti igények vonatkozhatnak rendelkezésre állásra, rugalmasságra, tesztelési/fejlesztési lehetőségekre és még hosszan lehetne sorolni.
- A hozzászóláshoz be kell jelentkezni
Nem árt persze azt sem megvizsgálni, hogy minden szolgáltatás önálló gépet igényel, vagy vannak olyan szolgáltatások, melyek egymás mellett, egyazon operációs rendszerben is képesek működni?
Ezenkívül a szerverkonszolidáció csak egy kérdés, a másik pedig hogy a jövőben mire számíthatsz? Lesz-e szükség új szolgáltatásokra és ezek ellátására új szerverekre?
Ave, Saabi.
- A hozzászóláshoz be kell jelentkezni
Azért a hozzám hasonló cipőben járó emberkék védelmében: nem mondom, hogy mindent tudok. Nem mondom, hogy értek hozzá. De azt se mondanám, hogy hülye vagyok és azt is tudom, hogy lehetne jobban is. De ha a pénzügy és/vagy a főnök nem engedi a beruházást, akkor én hiába szerencsétlenkedek... Én üzemeltetem, de sz@rból várat attól még nem tok építeni!
- A hozzászóláshoz be kell jelentkezni
Annyit tennék hozzá, hogyha valahol amúgy is csak egy vason futna x darab szolgáltatás, akkor "nem kötelező" két gépen virtualizálni. Ha két vason futna két szolgáltatás, akkor már jobban megfontolandó, de ha az egyik működésének előfeltétele a másik is, akkor ismét opcionális a redundáns architektúra (ami mind eszközök szempontjából drágább, mind bevezetés és üzemeltetés szempontjából).
A redundanciát a cégnek kell eldöntenie, hogy mennyit ér meg neki.
- A hozzászóláshoz be kell jelentkezni
Ha van tíz, egymástól független szolgáltatásod, akkor az egyik kiesése nem feltétlen eredményezi az egész cég leállását. Ha mind a tíz szolgáltatás egy vason fut, annak a vasnak a kiesése az egész cég leállását eredményezheti, mivel az alkalmazottak nem tudnak 'Y' programmal dolgozni amíg 'X' betegeskedik.
A virtualizáció nem nagyon emlegetett mellékhatása, hogy ha nem működik, akkor sokkal nagyobb kárt okozhat, mintha nem volna. Persze jó tervezéssel ennek esélye csökkenthető, de pl. a VMWare - legjobb tudomásom szerint - nem képes sofwtare-es tükrözésre, tehát ha egy LUN kiesik a storage hibájából, az minden, azon a LUN-on futó guestet érint. És ezen nem tudsz egy második storage üzembeállításával segíteni. Ha tévednék, elnézést kérek, de én így tudom.
Ave, Saabi.
- A hozzászóláshoz be kell jelentkezni
Ha a vmware nem is, mas tudhatja, nem? Amugypedig te itt most esxi-rol beszelsz? Zavaros.
Nemmellesleg nem kell feltetlenul kell zero kieseses atallasra gondolni. Hasonlo esetben nagyon sokszor az is epp eleg, ha human eroforras kezimunkaval helyrerazza a rendszer, ha szukseges a tukor beillesztesevel.
Ugyanez egy normal gep eseten jo esellyel gepek fizikai szereleset jelenti.
Vagy felreertettem vmit?
udv,
tompos
- A hozzászóláshoz be kell jelentkezni
Igyekeztem végig kerülni konkrét megvalósítás megnevezését és általánosságban beszélni.
A példámban vSphere-re gondoltam.
Hogy a manuális helyreállítás mennyi idő alatt abszolválható, erősen függ a humán erőforrás képességeitől és a hiba jellegétől. Lényeg, hogy a hibaelhárítás alatt nincs _semmilyen_ szolgáltatás. Hogy ez elfogadható-e vagy sem, döntés kérdése.
Ave, Saabi.
- A hozzászóláshoz be kell jelentkezni
Kiesik a LUN, masik storage-en felhuzod az utolso snapshotot, path-t atirod a cluster tulajdonsagai kozott, profit. Netto 3 perc. A virtualizalas eggyik elonye hogy egyszeruve teszi a HA/DR-t.
- A hozzászóláshoz be kell jelentkezni
ha van storage, meg snapshot, akkor van storage oldali raid is. tehát a problémafelvetés maga igazából egy noop.
- A hozzászóláshoz be kell jelentkezni
Nem, nem az. Nem csak disk kiesés okozhatja LUN kiesését. SAN félrekonfigurálás, prezentáció félrekonfigurálás, sikertelen firmware upgrade, firmware bug... A lehetőségek tárháza korlátlan. Lényeg, hogy amíg egy storage használható, az bizony SPOF és amíg egy környezetben csak egyetlen SPOF is található, addig az a környezet nem magas rendelkezésreállású, tehát felmerülhet olyan szituáció, hogy nincs szolgáltatás.
Értem én, hogy ezek már erősen enterprise problémák, SOHO-ban ritkán merülnek fel. De a teljes képhez úgy véltem hozzátartoznak.
Ave, Saabi.
- A hozzászóláshoz be kell jelentkezni
na várjunk: ha intelligens, redundáns külső diszkegységed van, az nem soho környezet, hanem enterprise, árban is (milliókról beszélünk).
ha nincs intelligens külső diszkegységed, akkor hogy van multi initiator diszked? ha nincs, akkor hogy akarsz szerver failovert? hidegtartalék és átdugod a diszkeket? vagy iscsi?
ha meg nincs szerver failovered, akkor milyen spof-ról beszélgetünk egyáltalán?
szóval persze, igazad van, a képhez hozzátartozik, és szerintem sem frankó, ha a virtualizációs környezet annyit se tud, hogy két mezei belső sata diszket összetükrözzön, de azért nem ez az igazi szempont.
- A hozzászóláshoz be kell jelentkezni
Azert nem kell miliokban gondolkozni. Alapszinten kell 4 kozepszintu szerver: 2 hypervisor, 1 FreeNAS(iscsi) + 1 dev(szukseg szerint plusz szerver/backup/nas). Egy hasonlo setuppal gyakorlatilag mindent meg lehet csinalni, es ha gaz van, a dev gepbol egy reboot-al csinalsz backup nas-t, vagy 3ik hypervisort.
Ez alatt is lehet virtualizacioban gondolkozni, csak egy csomo elonyet nem fogod elvezni.
- A hozzászóláshoz be kell jelentkezni
Két "mezei" ESX-szel és két switch-csel is lehet magas rendelkezésre állású környezetet csinálni, ráadásul 100%-osan támogatottan.
- A hozzászóláshoz be kell jelentkezni
Kulso storage nelkul? link pls.
- A hozzászóláshoz be kell jelentkezni
A http://www.vmware.com/resources/compatibility/ oldalon keress rá a tárolókra, "Storage Virtual Appliance Only" opcióval. A többit nem ismerem/próbáltuk, nem tudom miként állnak pontosan a replikáció kérdésével.
Most jött ki nem régen w2k8r2-höz az iSCSI target, elvileg VMware alatt is használható, talán HCL-ben is benne lesz (ennek a replikációs képességeit is meg kellene nézni).
- A hozzászóláshoz be kell jelentkezni
Nahat, egy "dbrd" plugin vCenterhez. Ugyes :-)
Ma is tanultam valamit, kosz.
- A hozzászóláshoz be kell jelentkezni
Tudtommal nem DRDB-t használ.
Próbáltuk a DRDB-t is, működött (sőt működik...), de inkább soha többet.
- A hozzászóláshoz be kell jelentkezni
Nem drbd, hanem ugyanaz a funkcionalitás: szinkron tükrözés hálózaton keresztül.
Az a probléma, hogy a hálózati "távolsággal" arányosan a szinkron tükrözés durva latency-t tud a rendszerbe bevinni, ami egy windows fájlszervernek nem fáj, de egy oltp adatbázist nem akarsz majd rárakni.
Mellesleg, ha elolvasod a doksiját, látni fogod, hogy nem 2, hanem 3 gép kell a quorum miatt, persze ebből csak 2 az esx, a 3. a vcenter.
- A hozzászóláshoz be kell jelentkezni
A StorMagic nyilván nem arra való, hogy megváltsa a világot minden szempontból, sokkal inkább arra, hogy gazdaságos osztott tárolót biztosítson (gyatrább DRDB-vel nem kevés felhasználót lehet ilyen konfigurációval kiszolgálni). Alapvetően két előnye mindenképpen van:
- tudsz VMotionözni
- működik a VMware HA
- az adataid automatikusan nem egy, hanem két helyen vannak
Azért meg lehet oldani, hogy "kellő" minőségű konzisztenciád legyen két gép esetén is: a vCentert lokális táron hagyod (nem az SvSAN által nyújtott), illetve az SvSAN-ok ne induljanak automatikusan az ESX-szel.
- A hozzászóláshoz be kell jelentkezni
Ez nekem egy picit "l’art pour l’art"-nak tűnik.
Ahol van vCenterre költségvetés, ott nem hiszem el, hogy ne férne bele két olcsóbb iscsi-s appliance (bár itt a mirror kérdéses) vagy 2 rendes gép iscsi tárolóként DRDB-vel. És itt akár még a path is lehet redundáns.
- A hozzászóláshoz be kell jelentkezni
Hát pedig van ilyen... Az Essentials Plus megfizethetőbb kategória (fölötte már nyilván mások a költség arányok).
Ellenben DRBD alapú tároló egyáltalán nem támogatott, ha a legkisebb tároló alapú probléma merülne fel, a VMware szépen széttárná a karját. Akkor már inkább StorMagic, vagy akármelyik más támogatott szoftveres megoldás.
Egyébként egyetértek: mindenképpen "normális" tárolót érdemes használni.
- A hozzászóláshoz be kell jelentkezni
HPVM alatt, ha Mirrordisket használok, akkor még csak el sem crashelnek a guestek. Hátránya, hogy nem olcsó de drága.
- A hozzászóláshoz be kell jelentkezni
Nyilván, mindössze arra akartam utalni, hogy a virtualizációnak nemcsak nagy rendelkezésre állású (=majdnem minden redundáns) környezetben van létjogosultsága. Azaz (tetszőleges megvalósítású) osztott tároló nélkül is lehet értelme virtualizálni.
Egyébként 5-esben elvileg jön a "host based" replikáció.
- A hozzászóláshoz be kell jelentkezni
Erre (is) van a Vmware Fault Tolerance
http://www.vmware.com/products/fault-tolerance/overview.html
- A hozzászóláshoz be kell jelentkezni
Azért ennek van néhány buktatója(egy hatalmas) is.
- A hozzászóláshoz be kell jelentkezni
éspedig?
- A hozzászóláshoz be kell jelentkezni
- nem tudsz pillanatképet csinálni (biztonsági mentés miatt fontos lenne)
- max 1 vCPU
- mindenképpen kell közös tároló (nem buktató, csak igény)
- nyilván erőforrás igénye is van, de ez nem meglepő
- A hozzászóláshoz be kell jelentkezni
plusz:
- ha esetleg meglévő régebbi hardveren szeretné használni, akkor cpu kompatibilitási probléma lehet
- dedikált hálózat nem árt
- A hozzászóláshoz be kell jelentkezni
ez mind igaz amit írsz, de:
enterprise környezetben ezek mind kellenek, nem csak az FT-hez:
"- mindenképpen kell közös tároló (nem buktató, csak igény)
- nyilván erőforrás igénye is van, de ez nem meglepő
- dedikált hálózat nem árt"
"- nem tudsz pillanatképet csinálni (biztonsági mentés miatt fontos lenne)" - ha vcb nem is megy, a fajlokat még bármelyik mentőszoftverrel le lehet menteni :) snapshot funkcióra meg ott a secondary vm
"- ha esetleg meglévő régebbi hardveren szeretné használni, akkor cpu kompatibilitási probléma lehet" - erre meg oda kell figyelni
btw én csak erre a mondatra válaszul írtam az FT-t: "Persze jó tervezéssel ennek esélye csökkenthető, de pl. a VMWare - legjobb tudomásom szerint - nem képes sofwtare-es tükrözésre, tehát ha egy LUN kiesik a storage hibájából, az minden, azon a LUN-on futó guestet érint."
Bár jobban belegondolva erre jó a VMware vCenter Site Recovery Manager is, és akkor a fenti hiányosságok is kiküszöbölhetőek :) Persze tudom, ehhez meg kell a tartalék vas, meg tartalék vCentert szerver, stb. De megoldható, hogy a másolati példányok másik lunon, másik storageon legyenek
- A hozzászóláshoz be kell jelentkezni
"snapshot funkcióra secondary VM": ezt milyen szoftver kezeli le? (működik egyáltalán éles FT-vel?)
VM szintű mentés azért nem elhanyagolható dolog, könnyebb belőle visszaállni.
"LUN kiesik": az SRM-hez (egyelőre) kell a tároló szintű replikáció, azaz előfeltétel, hogy a LUN azért még létezzen a túloldalon. Arról nem beszélve, hogy az SRM failover nem automatikus, illetve valószínűleg nem arra van bekonfigurálva, hogy egy LUN elzakkanását kezelje le.
Ami segíteni tud (és nem is vészes pénzügyileg): virtuális gép szintű replikáció (pl. Veeam Backup & Replication), ugyanis akár teljesen független tárolóra másolódik a VM. A technológia korlátja, hogy pillanatkép szükséges, de akár folyamatosítható is.
- A hozzászóláshoz be kell jelentkezni
Az SRM lényege, hogy teljes a primary site elhalása esetén is viszonylag hamar újra életképesek legyenek a szerverek a secondary siteon. Persze vannak előfeltételei, de az nem igaz, hogy ahhoz, hogy a secondary siteon elindítsak egy vm-et, ahhoz kellene hogy a túloldalon még meglegyen az eredeti LUN-ja... Ilyen esetben mi értelme lenne SRM-et használni?
Ráadásul produktív rendszerek esetében automatikusra kell állítani a replikációt, pont arra készülve, hogy a teljes primary site elpusztulhat bármikor. Az SRM failovert persze célszerű manualra állítani, hogy pár ping esetleges kiesése a két site közt ne eredményezze azt, hogy a DR siteon is elindulnak ugyanazok a szerverek, mert azt hiszi, hogy a primary lehalt :)
- A hozzászóláshoz be kell jelentkezni
Nyilván nem az eredeti LUN-nak kell meglennie az elsődleges oldalon a DR oldali induláshoz, hanem a replikáltnak a DR oldalon: egy tárolóról számos okból eltűnhet egy LUN (sőt: az "eltűnésnek" is több módja lehet), így az is előfordulhat, hogy a DR oldalról is "hiányzik" már (például a tároló adminja rosszat törölt, valaki becsatolta egy Windows-ba a VMFS-t, ami újra írta a fejlécet, a változás is átment már a túloldalra,...).
A replikáció nyilván automatikus, de maga a failover nem. Tehát amíg a döntéshozó nem mondja azt, hogy failover van, addig nincs failover. Ha 24 órára van szükség döntést hozni azután, hogy felrobbant az adatközpont, akkor 24 óráig nem fut semmi a DR oldalon sem.
Az beállítható egyébként, hogy a "fő" oldalon először álljanak le a VM-ek: például árvíz van, és tuti, hogy 2 óra múlva leáll minden mert addigra úszik az épület/kifogynak a generátorok, ez esetben nem kell kézzel foglalkozni az elsődleges oldal lekapcsolásával.
- A hozzászóláshoz be kell jelentkezni
így már értem a LUN-ra vonatkozó válaszaidat :)
A failover esetében meg ugyanarról beszélünk (addig nincs failover amíg arra valaki utasítást nem ad)
- A hozzászóláshoz be kell jelentkezni
A lényege valóban ez, de ennél sokkal bonyolultabb.
Valóban kell az "eredeti" lun, de az SRM storage alapú replikáción alapul, az SRM szervernek el is kell érnie a SAN-t, megfelelő privilégiumokkal bíró userrel.
IBMnél Global/Metro mirror kell a DS8k-nál, hogy működjön az egész, de ahogy Attila írta ez adminisztrátor általi lun törlésnél olyan halottnak a csók (erre van backup).
Automatikusan pedig indulhat el, nem ő dönti el, hogy failover kell-e. Nem véletlenül hoz az SRM saját role-t is a vCenterre. Ajánlott külön felhasználó az indításra.
- A hozzászóláshoz be kell jelentkezni
Persze, dedikált hálózat kell managementre, de pluszban az FT loggingra is.
VCB/kliens backup vagy FT, kinek mi kell. El kell dönteni az igényeket.
Ha a lun kiesik a storage hibájából, az mindenképp baj, de nem gondolnám, hogy ez ellen hypervisor szinten kellen tenni. Nálunk például vannak olyan gépek, ahol "guest based mirror" van (pl. win alatt mirror) külön DC-ben és a vmx, vmdk(nem a flat) fileok rendszeres mentése.
SRM nem feltétlen jó erre.
- A hozzászóláshoz be kell jelentkezni
Ha külön VLAN-t vagy VMkernel portot értesz dedikált hálózat alatt, akkor ok, de saját hálókártya, esetleg saját switchre nincs feltétlenül szükség (méretezés kérdése).
A "guest based mirror" természtesen jó megoldás, de a virtualizációnak pont az a lényege, hogy uniformizál számos dolgot VM szinten: meghatározod a VM-ben futó alkalmazásra vonatkozó mindenféle SLA-kat, és az előny ott jön elő, hogy minden hasonló követelményű VM igényeit azonosan tudod kielégíteni (például az FT vagy HA elég jelentősen könnyíti az adminisztrációt).
Természetesen előfordulhat, hogy VM szintű tükrözéssel/redundanciával bizonyos tervezett karbantartásokat nem lehet kiküszöbölni (például frissítés miatti OS vagy alkalmazás újraindítása), ez esetben nyilván szükséges alkalmazás szinten (is) gondoskodni a redundanciáról.
Úgyhogy én azt gondolom, hogy igen, amiről tudunk hipervizor szinten gondoskodni, arról gondoskodjunk (amíg ez nincs meg, lehet olyannal próbálkozni, hogy RAID1 VM-ben: egyik VMDK egyik tárolón, másik VMDK másik tárolón, akár működhet is legalább olyan szinten, hogy minimalizált az adatvesztés esélye, az másik kérdés, hogy pontosan mi fog történni, amikor eltűnik a LUN, főleg ha a .vmx is rajta van)
- A hozzászóláshoz be kell jelentkezni
Guest based mirror alatt értettem a RAID1-et a VM-ben, két datacenterre elosztva (bár szerintem nem feltétlen jó módszer). VMX és vmdk fájlokat mentünk, bizonyos problémák esetén meggyorsítja a recoveryt, ha ezek megvannak.
- A hozzászóláshoz be kell jelentkezni
Adatközpontok közötti tükrözés esetén mindenképpen célszerű lenne arról gondoskodni, hogy az olvasás történjen csak lokálisan történjen (Linux md esetén ez paraméterezhető például?).
Egyébként az is többlet biztonságot nyújt(ana), ha adatközponton belül két különböző táron van a két VMDK (lehetőleg legalább a RAID tömb legyen különböző).
- A hozzászóláshoz be kell jelentkezni
"dedikált hálózat": sőt, akár 10GbE-re is szükség lehet...
Tapasztalat szerint például egy kisebb terhelésű monitorozó szerver vígan elfut FT-vel mindenféle különösebb hókuszpók nélkül.
Bevezetés előtt nyilván nem árt gondolkodni és doksit olvasni.
- A hozzászóláshoz be kell jelentkezni
Ne azert virtualizalj, mert szokas, hanem akkor, ha szukseg van ra.
Ha adott a feladat, utana tudsz hozza eszkozt valasztani. Vannak virtualizacios eszkozok, amik gyakorlatilag nativan a diszk teljesitmenyet adjak vissza.
Amikor VM-eket futtatsz egymas melett, szerencses esetben a gep kihasznaltsaga noni fog, azaz a csucsok idejen megkapnak X sok eroforrast, amikor alapon futnak, az X-et pedig ugyanaz a hw adja.
Ezen kivul lehet meg elonye a virtualizacionak, pl. a konnyu koltoztethetoseg -> nem a szolgaltatast, hanem az azt kiszolgalo VM-et lesz HA.
Szoval eloszor azt kell eldontened, mi a cel.
tompos
ui.: A diszkek sebessege miert lenne a 10 evvel ezelotti szinten?
- A hozzászóláshoz be kell jelentkezni
a szekvenciális olvasási sebesség nőtt, de az IOPS teljesítmény főként a diszk rpm-jével van összefüggésben, és gyakorlatilag nem nőtt.
a napokban próbáltam egy "hiperkorszerű" WD Black diszket. nem sikerült semmilyen körülmények között 140 IOPS fölé tornázni. utána megfogtam egy 10+ éves 18 gigás SCSI diszket, és lazán 180-200 IOPS-ot hozott.
- A hozzászóláshoz be kell jelentkezni
Gizike vagy gozeke? A 10 evvel ezelotti araval szmaolja 18G-s scsi-nek, vegyel belole mostani SAS-t, vagy akar sata-t, aztan naugye.
tompos
- A hozzászóláshoz be kell jelentkezni
nem az volt a kérdés, hogy olcsóbb lett-e, hanem hogy gyorsabb lett-e.
olcsóbb lett, gyorsabb gyakorlatilag nem nagyon.
vagy, azonos árból persze építhetsz bazi sokdiszkes RAID-et, és akkor úgy persze gyorsabb...
csak, ha megnézel egy átlag desktop pécét, egy darab diszk van benne. ha megnézel egy tipikus alap szervergépet, mondjuk 2-4 diszk van benne. akkor meg sokat érsz vele, ha létezik a szervergyártónak 24-48 diszkes SAN-ja...
- A hozzászóláshoz be kell jelentkezni
arra próbáltak célozni, hogy ne egy 10 évvel ezelőtti top vinyót hasonlíts össze egy mail soho vinyóval. Ha a 10 évvel ezelőtti csúcsot veszed, akkor illene most is a csúcsost venni.
- A hozzászóláshoz be kell jelentkezni
Nem lesz közöttük nagyságrendi különbség.
Egy mai top 15krpm-es sas diszk alig tud többet, mint egy 8-10 évvel ezelőtti scsi verzió (kb. akkor jelentek meg a 15k-s diszkek), a különbség iops-ban szerintem 20%-on belül lesz.
A nagyságrendi különbség egy ssd meg egy forgó vinyó között van, ott iops-ban 2-3 nagyságrend simán tud lenni.
- A hozzászóláshoz be kell jelentkezni
Tokmind1. Egyreszt ne a ket kulonbozo kategoriat hasonlits ossze, masreszt igen, raid-del nagysagrendeket lehet gyorsitani.
Maskor mindig clusterezes-rol van szo, hiszen anelkul nem virtualizacio virtualizacio. Most pedig 1 _db_ desktop hdd-t hasonlitasz ossze 1 _db_ top hdd-vel. Ez fair?
Masreszt pont errol van szo, meg kicsiben csinalva is, plane nagyban nezve.
Amit regen megoldottal 5x2 hdd-vel (mondjuk raid1) 5 gepben, azt most meg tudod oldani ugy, hogy lesz egy 2x5 diszkes raid10-ed es az idoben eltero terhelescsucsok miatt mindegyik kap ebbol mondjuk 2x3-at, vagy ilyesmi.
tompos
- A hozzászóláshoz be kell jelentkezni
Nagyon feladatfüggő, hogy minek mennyi az IOPS igénye.
Én ennyire nem gondolom gyászosnak a helyzetet, akár néhány SATA lemez is bőven elegendő teljesítményt tud nyújtani több VM számára is.
Az sem mindegy, hogy napi ügymeneti terhelést nézel vagy éjszakai mentést, utóbbi esetén majdnem mindegy, hogy az x db GB/TB adat hány VM révén jön össze.
- A hozzászóláshoz be kell jelentkezni
a hardver budget 60%-a menjen diszkre. A tobbi cpu, memoria, halozat. Akkor lesz neked jo.
Ez a virtualizaciotol fuggetlen. A virtualizacio egy tool, egy featureset, ami nehany rendszergazdai feladatot egyszerubbe tesz, nehany korabban nem letezo feladatot meg behoz.
- A hozzászóláshoz be kell jelentkezni
A virtualizacio elsodleges elonye nem a sebessegnovekedes (mert az altalaban nincs is) hanem egy csomo mas: hw. jobb kihasznalasa, koltsegcsokkentes, flexibilitas novekedese, konyebb/gyorsabb management, HA/DR, etc.
Mint minden "divat" mogott, a virtualizacio mogott is vannak ervek, csak ahogy sok mas, ez sem egy altalanos mindenre jo megoldas.
"if all you have is a hammer, everything looks like a nail"
- A hozzászóláshoz be kell jelentkezni
Azt se feledjük, hogy virt. gépeket sokkal könnyebb "költöztetni", mert azokat már nem "érdekli" pontosan milyen vas milyen driverrel van alátéve.
Ha az árat nézzük - kevesebb - erős - vas, kisebb villanyszámla, mégis több szerepkört lehet rátolni egy fizikai gépre, amit ráadásul így karbantartani is könnyebb lehet.
Ha pedig egy virt gép megborul az nem tudja magával vinni a többit, tehát üzembiztonság szempontjából sem utolsó szempont a virtualizáció bevezetése.
Hirtelen ennyi jut eszembe de ez még közel sem teljes lista az előnyökről.
Ami a diszk teljesítmény - nyakunkon vannak az SSD-k és SSD kombó diszkek, tömbök pedig eddig is voltak...
- A hozzászóláshoz be kell jelentkezni
Nekem megeri, mert egy vasam van, es azon kulonbozo OS-eket szeretnek futtatni, azon okbol kifolyolag, hogy a kodomat azokon is tesztelni akarom.
Nincs az a $DEITY, hogy folyamatosan keresztul-kasul bootolgassak, plane, hogy a tesztrendszerem eleve 3+ gepet igenyel (vagy baromi nagy hackolast, amire nem vagyok kaphato). Virtualizacioval tok jol elfut egymas mellett a Debianom, egy FreeBSD meg egy OpenIndiana, tobbek kozt.
Disk sebesseg nem erdekel jelen esetben, nem az a szuk keresztmetszetem.
--
|8]
- A hozzászóláshoz be kell jelentkezni
A legolcsóbb megoldás, hogy minden gépnek adsz egy fizikai diszket, és akkor nincs az, hogy felzabálják egymás elől a lemezt. Sosem teszteltem, de ha nem virtuális hanem fizikai diszkként teszed a VM alá, akkor szerintem közel natív sebessége kéne legyen.
- A hozzászóláshoz be kell jelentkezni
Hat ezen hangosan fel rohogtem. Nem is ertem miert nem alkalmazzak ezt enterspajz kornyezetben. Esetleg elo alhatnal vele a nagy vilag elott...
--
1 leszel vagy 0 élő vagy hulla!
- A hozzászóláshoz be kell jelentkezni
1. Nem hiszem, hogy lett volna szó enterprise környezetről.
2. A hozzászólásom úgy kezdődik, hogy a legolcsóbb megoldás annak elkerülésére, hogy megegyék egymás elől a a lemezt. Ha már itt tartunk, szerinted mi a legolcsóbb megoldás erre?
3. Nyilván az optimális kialakítás függ a virtuális gépek lemezhasználatának mikéntjétől, és attól, hogy mi a cél.
- A hozzászóláshoz be kell jelentkezni
1. Hat az otthoni virtualizalgatast keverni egy eles rendszerel hulyeseg de hajra. Viszont Oregonnak sajat cege van mar parszor kiemelte.
2. Te virtualiztal mar eletedben? Tudod vannak olyan szo,hogy tervezes. Ez ilyen virtualbox rules.
3. Igen na most nem a virtualis gepet igazitjuk a felhasznalashoz hanem az alkalmazast a ketto tok mas.
--
1 leszel vagy 0 élő vagy hulla!
- A hozzászóláshoz be kell jelentkezni
1. --
Pontosan. És a villanyszámlát leszarom, mert nem érdekel a saját munkám drágább.
- A hozzászóláshoz be kell jelentkezni
2. Igen, köszi.
3. Abszolút nem ezt mondtam.
- A hozzászóláshoz be kell jelentkezni
Akár performancia javulást is elérhetsz:
- a virtuális gép egy (vagy több) nagyobb fájlból áll, ami (ideális esetben) nincs fragmentálva. Ez kevesebb és kisebb fejmozgást eredményez.
- a futtató környezet is tud akár javulást hozni: más/több cache illetve jobb I/O policy. (Pl. találkoztam olyan SQL szerverrel, aminek VmWare környezetben javult a performanciája, pedig előtte sem gagyi HW szolgált alatta.)
- A hozzászóláshoz be kell jelentkezni
Akkor ott vmi kurvara el volt baszva szep magyarosan kifejezve.
tompos
- A hozzászóláshoz be kell jelentkezni
Miért lett volna elb@szva? Én is tapasztaltam már ezt. Sőt nekem még a virtualbox-os xp-k is fürgébbnek tűnnek mint a fizikai gépre felrakottak.
- A hozzászóláshoz be kell jelentkezni
Akkor hajra, hasznald ugy;)
tompos
ui.: Gondold vegig.
- A hozzászóláshoz be kell jelentkezni
mit gondoljon vegig? hogy a vmware a threadeket jobban tudja schedulingolni a fizikai magokon?
- A hozzászóláshoz be kell jelentkezni
schedulingolni, szep szo:)
Jobban tudja minel?
Van egy geped, azon van egy OS1, egy virtualizacios sw, majd abban egy OS2, es abban az alkalmazas. Ez jobban fut, mintha az az OS1-et es a virtualizacios sw-t kihagyod, nativan rakod az OS2-t a gepre.
Kapjon mondjuk az OS1 1 magot es 5% memoriat, a tobbit mind a VM kapja.
Azt mondod, az elso esetben gyorsabb lesz, mint az elso esetben, jol ertem? Szerinted ez igy akkor nincs elszurva?
Vagy tekintve a masik lehetoseget, azt mondja, egy file van, az defragmentalt a fragmentalt original rendszerhez kepest. Akkor nincs elszurva ott, hogy az original rendszer fragmentalt? Vagy ha (tegyuk fel) ez nem elkerulheto, akkor a VM-en belul miert nem lesz ugyanugy fragmentalt?
Nehogy mar a fika egye az ovodast.
tompos
- A hozzászóláshoz be kell jelentkezni
Ezek a rendszerek egy hangyányit bonyolultabbak annál, mint hogy 5 sorban bizonyítsd azt, hogy minden esetben lassabb a VM.
Az XP pl. egy 10 éves technológia, toldozott-foldozott rendszer, aminek rohadtul nincs köze a mai hardverekhez. Egy tisztességes host oprendszer valószínűleg sokszor hatékonyabban lekezeli a hardvert, mint az XP tenné, az meg jól elvan magának a virtuálisan neki kitalált környezetben.
- A hozzászóláshoz be kell jelentkezni
miert futna jobban? azokon a procikon, amik tamogatjak a hw virtualizaciot, szinte nincs koltsege.
ezt az OS1, OS2 baromsagot nem is ertem: hypervisorrol volt szo, ezt en (es senki mas sem) szokta OSnek hivni. az nem kap X% ramot, meg magot, hanem felugyel mindent.
lattal te mar kozelrol ilyen rendszert?
- A hozzászóláshoz be kell jelentkezni
[...]
Itt irtam sokat, de aztan probalkozom meg.
Az overhead szo mond vmit, vagy a magas lorol az mar nem is latszik?
tompos
- A hozzászóláshoz be kell jelentkezni
van VALAMENNYI overhead, de a terheleselosztasban (1 gep, sok core) visszajohet a coreonkenti overhead.
- A hozzászóláshoz be kell jelentkezni
Nyilván valójában nem lesz jobb, de mezei laptopon én is tapasztaltam már, hogy egy Windows XP VirtualBoxban "érzésre" fürgébb, mint ha natívan futtatom. Hogy ennek mi az oka, az jó kérdés, én a host IO cache-re gyanakszom.
- A hozzászóláshoz be kell jelentkezni
EN meg ilyet nem tapasztaltam, de ha igy is van, akkor az nem azt jelenti, hogy az XP el van kefelve?
tompos
- A hozzászóláshoz be kell jelentkezni
azt, h az xp el van kefelve, mar regota mondjuk :)
- A hozzászóláshoz be kell jelentkezni
én a host IO cache-re gyanakszom.
Én meg egészen pontosan a write-back cache használatára tippelnék. Amivel egyébként csak 1 "apró" probléma van: az adatkonzisztencia garanciáját áldozza be az ember a sebességért, de ez ugye csak egy host crash esetén jön majd elő, az meg ritkán van, és akkor is ráfogják majd a nyuszira. Persze addig meg jön a duma, hogy mennyivel gyorsabb a virtualizált cucc... Hát persze.
- A hozzászóláshoz be kell jelentkezni
tompos: ez igen tudományos hozzászólás volt
- A hozzászóláshoz be kell jelentkezni
Az XP valóban gyorsabb VM-en az esetek többségében, de ez azért van, mert az XP olyan, amilyen.
- A hozzászóláshoz be kell jelentkezni
Meg szerintem az ember egy Vm-es xp-re nem rak pl viruskergetőt, meg sok felesleges cuccot :)
- A hozzászóláshoz be kell jelentkezni
-
- A hozzászóláshoz be kell jelentkezni
Azert van elb@szva, mert lenyeli a diszkre kiadott sync hivasokat. Ezzel oriasit lehet gyorsitani, viszont eles rendszeren roppant kellemetlen kovetkezmenyei lehetnek, ha esetleg varatlanul leall a host.
---
Internet Memetikai Tanszék
- A hozzászóláshoz be kell jelentkezni
Azt se árt figyelembe venni, hogy ilyenkor általában exp-imp, dump és betöltése szokott lenni az adatbázis mozgatásának a módja, ami nem ritkán helyből dob a db sebességén. Még ha csak ideiglenesen is.
- A hozzászóláshoz be kell jelentkezni
A kezdetekben:
Vala ~8 Linux + 1-2 Windows szerver. Mind más célra és teljesen más szoftver környezetben.
Kihasználtságuk alulról nyaldosta a 20%-ot. Ritka esetben persze meg voltak terhelve.
(A gépek persze nem voltak izom vasak de a fogyasztásuk így is 120-150W/gép)
Most:
2 db izmosabb vassal elvirtualizálgatjuk ezt a 8 linuxos vasat és még jópárat, ami közben jött be.
Igen a gép fogyasztása is igazodott ehhez. (200-400W terheléstől függően)
Számoljunk csak?
Régi: 10*(150-200W) = 1500-2000W
Mostani: 2*(200-300W) = 400-800W
És akkor nem beszéltünk még a clusterről meg a többi előnyről, amit ez az egész hozott.
Egyszóval szerintem NEM éri meg! :D :D :D
- A hozzászóláshoz be kell jelentkezni
Es akkor mar arrol ne is beszeljunk, hogy az enterprise-ready rendszerek (vSphere) tudnak olyat hogy merik a szerverek/VM-ek kihasznaltsagat, es ha egy szint ala esik (mondjuk este munkaido utan) akkor elkezdi egyre kevesebb vasra migralni (transzparensen) a VM-eket, es a nem hasznalt vasakat kikapcsolja, majd reggel ugyanezt visszafele, terhelesfuggoen.
- A hozzászóláshoz be kell jelentkezni
Osztán mennyi a licensz díja egy ilyen sokszerveres vSphere cuccnak?:)
- A hozzászóláshoz be kell jelentkezni
Bőven bejön az áramon, ehehe.
De egyébként ez csak attól függ, hogy mennyire hullámzó a terhelés. Pl. a tokiói metró/vasút beléptetőrendszere valószínűleg picit jobban meg van hajtva reggel 6-7-kor és este tízkor mint pl. hajnali háromkor, amikor csak a macskák mászkálnak az állomáson.
Ekkor az áram+légkondi vagy inkább az, hogy nem kell új vasat venni, mert ilyenkor meg ráterhelnek "ráérős" jobokat az amúgy unatkozó gépekre már jelentős megtakarítást hozhat.
De itthonra nem kéne :D
- A hozzászóláshoz be kell jelentkezni
FYI: ~4milla korul van 6cpu-ra + 1 win server licensz VMWare-bol, ugyanez XenServer ~1.5 milla
(webes arak alapjan, 3gep x 2cpu)
- A hozzászóláshoz be kell jelentkezni
a xen persze fele annyit nem tud, de legalabb 2x annyi ideig tart rendbentartani ;)
- A hozzászóláshoz be kell jelentkezni
de, legalább (mérésem szerint) gyorsabb ;>
Ubuntu 10.04, Thinkpad x61s
- A hozzászóláshoz be kell jelentkezni
Az nem kerdes hogy a vmware tobbet tud, a kerdes csak az hogy olyan aron szukseged van-e a plusz funkcionalitasra. Xen-t meg azert annyira nem gaz karbantartani :-), amit tud azt meg stabilan es megbizhatoan hozza.
- A hozzászóláshoz be kell jelentkezni
Az ilyet pedig 4 socketes vasakon éri meg szerintem nyomatni és abból is 3-4 kéne minimum, hogy a HA mindenképp meglegyen... Ha meg csak 3 géped van, akkor maximum 1-et kapcsoltathatsz le a vmware-el. Windows licensz is több kell szerintem, ha több Windows-t futtatsz. :)
- A hozzászóláshoz be kell jelentkezni
A socket szám/server majdnem mindegy, a kérdés inkább az, hogy mekkora a terhelés, amikor leesik: hány szerver erőforrás igényére nincs már szükség. Ilyen szempontból több 2 socketes szerver esetén nagyobb esély van arra, hogy legalább 1 erőforrása teljesen felszabadul.
Egyébként kis szerver számnál gazdaságosabb kevesebb socketest venni pont a redundancia miatt: ha van 2db 4 socketes szervered, akkor pont 1db 4 socketes szervered van tartaléknak (4 socket használható erőforrásod van). Ellenben 3x 2socket esetén szintén 4 socket erőforrásod van (1 esx kiesését feltételezve), de csak 2 socket van tartalékként. Jó esély van rá, hogy a 3x2 olcsóbb, mint a 2x4 (nyilván megfelelő RAM stb aránnyal).
Ha Datacenter licenc van, akkor mindegy hány Windows (Server) fut.
- A hozzászóláshoz be kell jelentkezni
Azért írtam a nagyobb vasat, mert ahol 2-3 2socketes gép van, nem biztos, hogy 4 milliót akarnak költeni, hogy havi néhány ezrest spóroljanak villanyon. :)
- A hozzászóláshoz be kell jelentkezni
És ahol 3-4db 4 socketes vas van/lenne, ott erre fognak költeni? :-)
Szerintem ott inkább 6-8db 2 socketes vasat fognak venni, és örülnek, hogy "ingyen" van a VMware, ráadásul valamennyi vas még le is áll éjszakára.
- A hozzászóláshoz be kell jelentkezni
Hat, ha le is akarod kapcsolni, es HA-t is akarsz, akkor persze, min 2 gep kell maradjon. A win licensz az admin/license szerverhez kell ami csak az alatt mukodik, fuggetlenul a VM-ek oprendszeretol.
- A hozzászóláshoz be kell jelentkezni
Ne használj lokális diket a virtualizált szerverekhez, hanem NAS-t vagy SAN-t, így a virtualhoston jelentősen csökkentheted az IO terhelést a CPU-n.
--
PtY - www.onlinedemo.hu
- A hozzászóláshoz be kell jelentkezni
"aha". majd azert pillants ra a vSAN-ra...
- A hozzászóláshoz be kell jelentkezni
Egyrészt: béta.
Másrészt nem ugyanarról beszélünk, mert az egy elosztott fájlrendszer, mint pl. a glusterfs, ahol a helyi disk io terhelés nem olyan, mint amikor _csak_ local disked van. Szóval nem egyről beszélünk.
--
PtY - www.onlinedemo.hu
- A hozzászóláshoz be kell jelentkezni
de, egyrol beszelunk. az ipar egyre inkabb tolodik el arra, hogy compute+storage egyutt van. max nem latod.
- A hozzászóláshoz be kell jelentkezni
Lehet. Én azt látom, hogy tárolórendszerek vannak, meg szerverek. De lehet, hogy a múltban élek, és nem feltétlenül hiszem azt, hogy amit a vmware mond, az a jövő.
Sokan próbáltak már nostradamust játszani az informatikában, de az élet sokszor rájuk cáfolt, ezért inkább maradnék szkeptikus :)
--
PtY - www.onlinedemo.hu
- A hozzászóláshoz be kell jelentkezni
ceph, gluster, openstack, meg a megannyi SDS megoldas. nem csak a vmware mondja.
- A hozzászóláshoz be kell jelentkezni
Igen, és ezek közül jó pár nem mai gyerek.
Ettől még nem lesz világmegváltás hirtelen. Lehet, hogy jó pár év múlva nagyobb lesz ezekre az igény, de jelenleg még nagyon elhanyagolható.
--
PtY - www.onlinedemo.hu
- A hozzászóláshoz be kell jelentkezni
Ez úgy hangzik, mintha el akarnál adni valamit. :)
- A hozzászóláshoz be kell jelentkezni
Aham, tele van a spájzom NAS-sal. Ha szeretnél NAS-solni, küldök egy zacskóval.
--
PtY - www.onlinedemo.hu
- A hozzászóláshoz be kell jelentkezni
Ez ebben a formában nem teljesen igaz!
Van jópár rendszerem ahol _normális_ (sas 10-15k rpm) lokális diskek vannak _normális_ raid kártyával, és ha hiszed ha nem, nincs vele semmi gond, pedig ráadásul drbd is van a képben.
Lehet hogy bizonyos eseteben rommá terhelődik a rendszer ha lokális diskek vannak, de ez egyáltalán nem egyértelmű tény, sőt...
---------------------------------------------------
Hell is empty and all the devils are here.
-- Wm. Shakespeare, "The Tempest"
- A hozzászóláshoz be kell jelentkezni
Igaz, nem akartam általánosítani, de úgy sikerült.
Sajnos azonban a brand kategóriájú cuccokban is egyre ritkábban találni rendes raid vezérlőt. Igaz, ez is csak azért van, mert minek tegyenek bele gyárilag olyan minőséget, ha az esetek nagy részében valami külső tárolóra lesz rápattintva a vas?
--
PtY - www.onlinedemo.hu
- A hozzászóláshoz be kell jelentkezni
Megfontoltan kell vásárolni, gombért kapni p400-as kártyát, ami a legtöb igényt bőven kielégíti, és nem szoktak csak úgy meghalni sem.
De én azt veszem észre inkább, hogy ha a controller nomrális is, simán belerakják a jó kis wd green diskeket, onnantól kezdve meg tökmindegy.. :)
---------------------------------------------------
Hell is empty and all the devils are here.
-- Wm. Shakespeare, "The Tempest"
- A hozzászóláshoz be kell jelentkezni
A disk és a kontroller általában együtt jön a brand gépekkel, bár ha az ember külön vásárol, akkor nem - ez igaz.
A disknek olyannak kell lennie, mint szoftvernek: igények alapján kell választani a megfelelőt ár/érték alapján.
Ha csak az ár számít, és az igény/érték figyelmen kívül marad, akkor meg lesz az eredménye - annak ellenére, hogy sok helyen semmi baj a green diskekkel.
--
PtY - www.onlinedemo.hu
- A hozzászóláshoz be kell jelentkezni
Ne használj általánosítást, mert a világ nem fekete-fehér :)
- A hozzászóláshoz be kell jelentkezni