Ha szerver virtualizációt szeretnék használni és a virtuális gép image-okat külső tárolón, storagen akarom tárolni, akkor a fizikai szerverek és a storage között milyen gyors kapcsolatot célszerű kiépíteni.
Mert nézegettem a technológiákat.
- Fibre Chanel ami akár 4GBites sőt 8GBites, de úgy tudom elég drága
- iSCSI etherneten, Az ethernet pedig vagy 1GBites akár több összefűzve, vagy 10GBites adapteren.
Ezen kívül van más más lehetőség?
Illetve kinek mivel van tapasztalata. Ár-érték arány hogy alakul, aki esetleg ismer több megoldást is.
Egy storage és két fizikai szerver lenne most. De a bővítésre is figyelnénk, ha az most nem jelent irreálisan magasabb költséget.
- 12107 megtekintés
Hozzászólások
Ezen kívül van más más lehetőség?
teherauto megrakva dvd-kkel :-)
milyen gyorsat erdemes? Nagyon gyorsat, mert a latency nem a baratod. De hogy most fc vagy iscsi, az izles, penztarca kerdese, ill. hogy melyiket ismered jobban. En 10G-s iscsi-ra szavaznek...
- A hozzászóláshoz be kell jelentkezni
10G NFS, ZFS-el meghajtva?:) Mondjuk az N darab tge kártya árától lehet, hogy önmagában hátast dobnak. :) Az FC-nél nem olcsóbb ha csak 1-2 szervert akarnak.
- A hozzászóláshoz be kell jelentkezni
nem tudjuk, hanyat akarnak, de az fc-hez a switch arat is illik belekalkulalni
- A hozzászóláshoz be kell jelentkezni
Akkor már tge-hez is és rögtön kettőt mert legalább az legyen redundáns. :)
- A hozzászóláshoz be kell jelentkezni
akkor legyen 2 fc switch :-) nekem aztan tok mindegy, ki melyiket szereti...
- A hozzászóláshoz be kell jelentkezni
Azert az NFS nem egy eletbiztositas.
--
Ki oda vagyik, hol szall a galamb, elszalasztja a kincset itt alant. | Gentoo Portal
- A hozzászóláshoz be kell jelentkezni
Attól függ mi és hogyan szolgáltatja :-)
- A hozzászóláshoz be kell jelentkezni
Semmi sem az, de ez cél/büdzsé/igény függő megint.
- A hozzászóláshoz be kell jelentkezni
4G-s FC-k már xarért-h..ért vannak.
1db 4G-s FC csatorna kb 5db 1G-s Ethernet sebességét hozza.
És akkor a failover és egyéb dolgokról még nem is beszéltünk.
- A hozzászóláshoz be kell jelentkezni
10G FCoE is létezik már, de úgy tippelem hogy drágább, mint a 8G FC.
- A hozzászóláshoz be kell jelentkezni
Szia!
Minden attol fugg...
a kerdes most az hogy milyen storageot akarsz, mekkora a maximalis adatatbiteli sebessege a vinyoknak az altalad valasztott kiepitesben.
2db hddre eleg egyetlen gigabites link is boven, ha pedig rackszekrenekeyt raksz osze storagebol, akkor ertelem szeruen **kicsit nagyobb adatatvitelre lesz szukseged.
Mi a cegnel ket sun 7000 sorozatu storage solutiont hasznalunk, sokezer ugyfel weboldal kiszolgalasahoz a webserek max 150Mbit et forgalmaznak a kozponti storage fele, jo mindjuk a webserverekben is van egy halom ram.
Tehat ha sok kis random io-d lesz, akkor eleg gyengebb kapcsolat is, ha hosszu szekvencialis muveleteid lesznek, akkor nagyobb adatatvitel szukseges
- A hozzászóláshoz be kell jelentkezni
Már előttem is leírták, hogy nem egészen pontos a leírásod.
Ha csak a számokat nézzük, akkor 10 Gb > 4 vagy 8 Gb. Viszont ezt még ezernyi körülmény módosíthatja.
Csak néhány nyitott kérdés:
- Hány virtuális gépet akarsz a tárolón tárolni?
- Mekkora ezen gépek IO terhelése?
- Milyen jelenlegi eszközeid vannak FC vagy iSCSI irányban?
- Mekkora átviteli késedelmet(latency) engedsz meg a rendszerben?
- iSCSI esetén tudod-e fizikailag is szeparálni a forgalmat?
- A tárolót hány fizikai szerver akarja elérni? Ezen szerverek a storage mellett vagy másik helyiségben/épületben/távol vannak?
- Mekkora üzembiztonságot/redundanciát szeretnél elérni?
- Milyen fejlődési irányok jellemzik a rendszert? Tervezhetsz-e előre?
- Mekkora fizikai kapacitást szeretnél a tárolóban? Ehhez hány lemez kell?
- Legfontosabb manapság: mennyi pénzed van rá?
Ha 2 fizikai géped, 6-10 db virtuális géped, alacsony-közepes(0-200 io/s/fizikai gép), nincs semmilyen eszközöd, a latency nem érdekel, csak menjen, esetleg megoldható az iSCSI forgalom fizikai szeparálása, a tároló a szerverek mellett van(max. 5-10 méter), nincs kereted redundanciára, nem tudsz semmit se előre és 50e Ft alatt akarod megúszni(nem számolva a storage árát) az egészet, akkor iSCSI a neked való. Akár az 1 Gb-es is elég.
Mihelyst vmotiont, HA/Failover működést, garantált késleltetést, redundanciát, időnként magas io terhelést akarsz kiszolgálni, akkor egyértelműen FC. Abból is 4 vagy 8 Gb-es.
- A hozzászóláshoz be kell jelentkezni
Még az összefűzéshez annyit, hogy összefűzhetsz 3-4 Gb-es Ethernet portot, de 1 gép akkor is legfeljebb 1 Gb-t fog tudni elérni. 2-3 hete volt aktuális itt a HUP-on a téma, keress rá.
- A hozzászóláshoz be kell jelentkezni
Megtaláltam: http://hup.hu/node/115443
- A hozzászóláshoz be kell jelentkezni
Ne higgy annak a fórumnak...
Az a lényeg, hogy ne failover, hanem aktív-aktív legyen a konfig. FC-nél erre általában csak a storage gyártó saját, legtöbbször drága szoftvere képes (pl powerpath), ethernetnél a normálisabb driverek tudják. Viszont ez leginkább csak egy switch-en belül műk (bár vannak technikák az ellenkezőjére).
Itt van egy jó leírás keresztkábelre mérésekkel:
http://serverfault.com/questions/287475/why-does-my-gigabit-bond-not-de…
Ha switch esetén nem jön ki ez a sebesség, akkor a switch konfig, vagy a switch hátlap nem jó (attól hogy van rajta 48db 1Gb port, még lehet hogy a hátlap szumma teljesítménye is 1Gb, ez főleg az olcsó eszközöknél simán előfordul).
- A hozzászóláshoz be kell jelentkezni
Egyetértek az általad írottakkal. Viszont azért írtam neki azt a választ, mert valószínűleg nincs sok pénze komoly eszközökre komoly szoftverekkel. Powerpath pedig EMC-hez van és fizetős. Az apróbetűs részbe nem akartam bevinni. Ráadásul ha olcsó eszközökből építkezik, akkor sokkal hamarabb belefut az általad is írt backplane korlátba.
- A hozzászóláshoz be kell jelentkezni
Az egészre az adta az ötletet, hogy van egy ilyen termék, most promóciós áron. S6BS
Aki kattint látja. :-)
És akkor már nézzük meg, hogy ki mit kínál a piacon kb. ezen vagy ehhez hasonló áron!
Elkezdtem "túrni a netet", mert az első kérdés ami megfogalmazódott bennem, hogy két szerver egy storage felállás esetében a szerverek és a storage között az 1GBites Ethernek sovány kapcsolat lehet.
Az FC-t és az iSCSI-t találtam meg mint lehetőségeket, de általánosságban.
Ezek után tettem fel a topik indítóban a kérdést.
--
Tertilla; Tisztelem a botladozó embert és nem rokonszenvezem a tökéletessel! Hagyd már abba!; DropBox
- A hozzászóláshoz be kell jelentkezni
Haladunk a konkrétumok felé :) Ez jó jel.
Érdemes mindenképp átgondolni, hogy milyen irányban fejlődsz/fejlődhetsz. Ez alapján érdemes gyártót és modellt választani. Pl: a SAS lemez jó, de drágább, mint a SATA. Viszont nagyobb tárterület kell, akkor olcsóbb a SATA. Továbbá ellensúlyozni lehet a SATA teljesítményhiányát a RAID tömbben lévő lemezek számának növelésével. Vagy mondjuk az IBM DS3200-nál ha 8 gépnél többet akarsz rákötni a storage-ra, akkor kiegészítő licencet kell venni. EMC/Netapp gyártóknál nincs ilyen limit, ellenben van más.
Az mindenképp jó döntés, hogy telepakolod a keretet. Az S6BS modellt skálázhatod, így elvileg megteheted később, hogy 1 keret SAS, 1 keret SATA stb. SSD még szerintem nincs bele. Így később szépen eloszthatod a gépeket kevésbé/nagyon io igényesekre.
EMC Clariion(új nevén: VNX) sorozat tagjainál megtehetted, hogy egyszerre volt FC és iSCSI csatoló is az eszközben. Így eleinte használhatsz iSCSI-t, majd ha tényleg óriási teljesítmény kell, akkor áttehetsz 1-2 gépet FC-re. Opció lehet még a SAS csatlakozás is. Így nem kell storage-ot cserélned. Netappnál nem ismerem a helyzetet, de szerintem ők is kínálják ezt a lehetőséget.
Ha érdekel 1-2 részlet, akár árakkal együtt, akkor keress nyugodtan privátban.
- A hozzászóláshoz be kell jelentkezni
A 2040 nagyon az alja. Mint a BMW 316 fapad. Kicsi, nem megy, kurblis a hátsó ablak, de ha csak hirtelen ránéz valaki, irigykedik rád :-)
A netapp baromi jó funkcionalitásban, de ebben a kategóriában ezt fizeted meg, azaz komoly teljesítményt és komoly redundanciát ne várj. Ha azt is beleteszed, elszalad az ára :-)
Bár az az igazság, hogy egyelőre 2 szerverrel fogod hajtani, amire vsz ez is jó. Még többre is.
- A hozzászóláshoz be kell jelentkezni
FAS2040-em van, 2-3 fizikai vassal és Citrix Xenserverrel.
A storage 3x1GB iscsi-val lóg a switchen (valójában duál kontrolleres duáls switches, 2x3x1Gbit, de ne bonyolítsuk. :) )
A szerverek 2x1Gbit active-active multipath.
Kb. 20 vpst szolgálnak ki, szokásos LAMP vackok, 1-2 windows szerver, és még egy ora adatbázis.
Semmi panasz nincs rá, az átlag latency 5-15ms körül van.
A tapasztalat az, hogy kis méretű (~8k) random io esetén baromi jó az iscsi, mert jumbo frame esetén ez kb. a csomagmérettel megegyező io méret. (A LAMP, és mail szerverek általában ilyen IO pattern-el mennek.)
A FAS2040-ben elég nagy controller cache van, ami aztán a backend-re már optimalizálva szépen ki tudja tolni az io-t. Hála a linux hígfos multipath megoldásának, egy szerverrel nem tudtam kiterhelni (tesztre meg nem volt több), de ettől függetlenül 1Gbit iscsi-n 9-10k Iops-ot is rá lehet tolni, és bírja.
Más kérdés, hogy a nagy IO méretű alkalmazások esetén (pl. file szerver nagy fájlokkal) relative lassúnak tűnhet a cucc.
- A hozzászóláshoz be kell jelentkezni
Ezen nem veszünk össze :-)
Jó kis cucc, ha elég . Ahhoz viszont nagyon ismerned kell az I/O profilodat, hogy ezt látatlanban eldöntsd. Nálunk egy régi 2050 lakott anno, vmware alatt hamar besokallt a random I/O miatt. De jól tette a dolgát évekig. Csak komótosan :-)
Amúgy egy géppel kihajtani nem feltétlen a linux miatt nem tudtad, akadtam már fenn alaplap sávszélességen. Nagyjából ezért nem vagyok x86 párti, bár az ára miatt nagyrészt én is azzal tolom.
- A hozzászóláshoz be kell jelentkezni
"Ahhoz viszont nagyon ismerned kell az I/O profilodat, hogy ezt látatlanban eldöntsd"
Mivel meglévő cuccot kellett rátolni, pár napig mértem, mielőtt döntöttem, hogy jó lesz -e az iscsi....
"úgy egy géppel kihajtani nem feltétlen a linux miatt nem tudtad"
De. A Linux iscsi multipath (legalábbis ami a Citrix xenserver6 alatt van) egy 2x1Gbit aktív-aktív linket csak max 1Gbitre tud kitekerni (~120MB/sec -et sikerült fél nap tuning után kihúzni belőle).
(szerk: és tuti aktív-aktív volt, mert mindkét switchporton kb fél-fél Gbit forgalmat mértem egyszerre)
Ha szétszedtem a multipath-ot és külön-külön olvastam a két linket, akkor linkenként megvolt a 120-120MB.....
Nem hiszem, hogy egy DellR510-nek alaplapi problémája lenne, úgy, hogy két külön NIC-en volt a két link.
- A hozzászóláshoz be kell jelentkezni
Ez pont úgy néz ki mint amikor a switch hátlapja 1Gb-et tud
- A hozzászóláshoz be kell jelentkezni
nem.
Egy linuxxal is rá tudtam tolni 2Gbit-et, de csak akkor, ha külön-külön húztam az egyes path-okat.
Ha ugyanaz multipath-ban volt, akkor a multipathon keresztül csak 1 gbit ment.
Ráadásul a két útvonal két külön switchen megy. (A switchek relative használható HP Procurve-ok)
- A hozzászóláshoz be kell jelentkezni
rr_min_io értéke ugye nem 1000? Mert ha igen akkor meg is van a probléma.
- A hozzászóláshoz be kell jelentkezni
nem.
Szórakoztam azzal is, most nincs előttem a tesztlap pont milyen értékekkel próbáltam , de még 1-el is. :) Úgy rémlik 20-50 között hozta a legjobb eredményeket.
- A hozzászóláshoz be kell jelentkezni
Gyártótól függ de általában 32 vagy 64, az jó szokott lenni. Ilyenkor mikor állítasz valamit csinálj rá -v3 -at mert nem biztos, hogy felvette a beállításokat. Szívtam már amiatt, hogy azt hittem felvette az adott értékeket amiket beírtam, közben meg nem :)
- A hozzászóláshoz be kell jelentkezni
ok, thx.
Egyébként meg, ha normális lenne, akkor még félretuningolva is 1Gbit-et meghaladó sebességet kéne vinne szerintem.
Tulajdonképp így sem vészes, mert 2-300Mbit-nél amúgy sincs normál esetben kitekerve a link, a multipath inkább a redundancia miatt kell.
- A hozzászóláshoz be kell jelentkezni
Gondolj bele, hogy félretuningolva nagyon sok I/O után léptetsz path-t, azaz gyakorlatilag csak 1 path sebességét tudod kihajtani. A failover meglesz de az LB nem igazán :)
- A hozzászóláshoz be kell jelentkezni
Ok, viszont az rr_min_io -n kívül túl sok más paraméter nincs a multipath beállításai között,
és 32, 64 meg bármi más kis érték esetén kb. ugyanazokat az 1Gbit körüli eredményeket hozta.
A default 1000-el volt kb. 0,5Gbit a teljesítménye.
- A hozzászóláshoz be kell jelentkezni
Azért ott még van pár paraméter amit lehet állítani :) kétségkivül azok már nem a LB-t szolgálják.
Sose csináltam még aktiv-aktiv ISCSI-t, de gondolom ott is bonding van (LACP). A bondingnál meg tudtommal 1 ip címről csak 1 interface-nyi sebességet lehet elérni (1 Gbit), nem lehet hogy ezért nem tudsz többet elérni? Bár nem irtad, de a PP sem hozhatott akkor nagyobb eredményt.
Nem tudom, hogy meglehet e csinálni, de ha van időd és lehetőséged próbáld ki. A bonding-ra felhúzol még 1 virtuális ip-t, a LUN-okat ezen is láttatod majd az mpath-t finomhangolod. (ne 1000-en legyen a rr_min_io, storage gyártói beállítások beállítása,stb).
A te esetedbe nem a multipath-t gondolom problémásnak hanem a bondingot, ugyanez a conf HBA-kkal csont nélkül menne.
- A hozzászóláshoz be kell jelentkezni
"Sose csináltam még aktiv-aktiv ISCSI-t, de gondolom ott is bonding van (LACP). "
Nem lacp.
A szerveren két külön iSCSI-ra dedikált port van, 2 (külön IP hálózatban levő) ip-vel, 2 switchbe dugva, storage oldalon szintén 2 interfész, a két switchbe 2 IP-vel.
Ha szerver oldalon a két útvonalat külön-külön dd-vel olvasom (azonos időben) akkor mindkettőt kiterheli a drótsebességig.
Ha a multipath álltal létrehozott eszközt olvasom akkor csak 1 Gbit (mindkét switchen az adott portokon 50%-os forgalommal). Tuti, hogy a multipath a szűk keresztmetszet, és hasonló problémákról olvastam is mindenfelé a neten, de megoldást sehol nem láttam.
- A hozzászóláshoz be kell jelentkezni
Igy már tiszta. Viszont akkor 5letem nincs miért csinálja ezt az mpath. RH6-al is lehet érdemes lenne kiprobálni, hátha ott kijavították ezt.
- A hozzászóláshoz be kell jelentkezni
Mivel Citrix Xen servert használok, ami ugye -most hirtelen nem ugrik be melyik- linuxból építkezik, ezért ez nem opció sajnos. :)
Egyébként teljesítmény problémát nem jelent a dolog, a redundancia sokkal fontosabb, az meg megvan. (Legalább is ellenált minden tönkretételi kísérletnek a tesztek alatt:) )
- A hozzászóláshoz be kell jelentkezni
/me sug: CentOS :-)
--
Ki oda vagyik, hol szall a galamb, elszalasztja a kincset itt alant. | Gentoo Portal
- A hozzászóláshoz be kell jelentkezni
Az mpath device-(oka)t tobb fuggetlen szalon olvastad parhuzamosan?
Ha jol emlekszem nekem sikerult mar FC felett egy path nevleges sebessegnel nagyobb osszsebesseget elerni.
Bar 4/8G FC eseteben mar nagy jelentosege nincs.
- A hozzászóláshoz be kell jelentkezni
"Bar 4/8G FC eseteben mar nagy jelentosege nincs"
Ezt hogy érted? Már hogy lenne mind1, hogy 2x4Gbit-es kártyából csak 4Gbit-et vagy 8-at húzol ki.
4x4Gbit-es kártyából ezt húzatom ki egy DB alatt, nativ mpath-al, és itt már a kártyákat érzem szűk keresztmetszetnek:
read kbyte/s
1197535.07
1152126.53
1317793.47
1216466.13
- A hozzászóláshoz be kell jelentkezni
Ugy ertettem, hogy 4/8Gbps eseten tobbnyire mar mas szokott lenni a szuk keresztmetszet.
Persze szintetikus tesztekkel (tipikusan soros olvasassal, mint pl. dd) lehet feszegetni a hatarokat, de egy reallife DB eseteben mar aligha. Eleg csak azt kiszamolni, hogy 2x4Gbps link es 4kB transfer size eseten ~250kIOps jon ki, amihez mar high-end es/vagy sok SSDs storage kell, amit meg tipikusan nem csak egy gep hasznal.
Szoval csak azt akartam irni, hogy 1G-s iscsi eseteben sokkal fajobb a path kihasznaltsag mikentje, mint 4/8G-s FC-nel.
- A hozzászóláshoz be kell jelentkezni
Ok akkor én értettem félre. Viszont egy valamire való adatbázis read-nél nem 1 blokkot olvas fel hanem sekvenciálisan a következő X db-ot (beállítás kérdése), így már nem 4k-nként kell I/O-zni, amugy manapság még használnak 4k-s blokk méretű DBket ? :)
Amit írtam az reallife DB terhelés (napi betöltés) és nem szintetikus teszt, a határt vagy a kártyák adják vagy a switch oldali portgroup de tuti nem a storage a kevés, sajnos SSD-nélküli a storage, de pár hónap múlva fogok egy 9 modulos XIV-t tesztelni amiben lesz már 3 TB-nyi SSD, igaz csak cache-re, na arra leszek kiváncsi, hogy ott mit produkálunk :) Viszont ezt az iscsi problémát még mindig nem tudom megemészteni.
- A hozzászóláshoz be kell jelentkezni
Úgy emlékszem próbáltam párhuzamosan 2 dd-vel is olvasni, de már nincsenek meg a tesztfeljegyzéseim.
Szerintem egy szállal sem kéne szűk keresztmetszetnek lennie. Ráadásul arra nincs befolyásom, hogy a
guestek hogyan olvassák a multipath dev-et.
FC multipath nem tudom mennyiben más. Elvileg nem, gyakorlatilag a multipath és iSCSI együttesen is okozhatják a tüneteket.
- A hozzászóláshoz be kell jelentkezni
Nem teljesen egyezik meg a te problémáddal de azért olvasd el bár itt bonding-al csinálták.
http://hup.hu/node/104937
1 vagy több LUN volt kiajánlva a kisérlet alatt?
- A hozzászóláshoz be kell jelentkezni
köszi, átfutottam anno azt a thread-et, de nem nagyon figyeltem rá, most újra elolvasva van benne 1-2 érdekes dolog.
1 LUN volt a tesztek alatt, azóta több van, majd méregetek kicsit ennek fényében.
Nagyon nem kritikus a dolog, mert 2-3 hónapja élesben megy a cucc, és elég jó a teljesítmény még így is.
- A hozzászóláshoz be kell jelentkezni
"Promotion is valid until 16th April 2012"
- A hozzászóláshoz be kell jelentkezni
Ennek ellenére Magyarországon még tart. Legalábbis vannak viszonteladók, akik így kínálják.
--
Tertilla; Tisztelem a botladozó embert és nem rokonszenvezem a tökéletessel! Hagyd már abba!; DropBox
- A hozzászóláshoz be kell jelentkezni
Ha ezt választanád - mivel később bővülni akarsz - kérj be tőlük árat nem akciós bővítésre hozzá. Ugyanezt tedd meg a többi esélyessel is, így lesz reálisabb képed arról hosszú távon melyik jön be jobban.
- A hozzászóláshoz be kell jelentkezni
Óriási +1.
Még azt is megkérdezheti, hogy vázolják fel neki az esetleges fejlesztési lehetőségeket, hogyan és mennyiért tud feljebb lépni a kategóriákban(belépő->közepes->high end), megoldható-e vezérlőcserével a feljebb lépés vagy komplett új tárolót kell venni.
- A hozzászóláshoz be kell jelentkezni
Bővíteni a kapacitást tekintve lehet, külső 12 HDD-t fogadni képes "tálcákkal" ha jól emlékszem a kifejezésre.
Most ebben a promóciós konfigban van 12x600GB HDD, amivel 4TB körüli hasznos tárterületet biztosít.
Inkább az lenne még a kérdés, hogy ha eleve van benne két FC csatoló, akkor a két szerverbe elég egy-egy FC csatoló és közvetlenül mehet a Staragera mind a kettő, vagy kell még közé valami? Pl. FC-elosztó, vagy FC-Switch, vagy valami hasonló, mint Ethernet esetében a Switch.
Közben ezt a leírást találtam: http://netappsky.com/wp-content/uploads/2010/12/fc_iscsi_config_guide_8…
Eszerint megoldható, hogy egy 2 FC portal rendelkező Storage, egy-egy FC-prorttal csatlakozik egy-egy összesen két szerverhez. A 2db FC port egyenként 4GBites.
Most már az lenne a kérdés, hogy a szerverbe milyen FC kártya kell és azt támogatja-e a RedHat 6.xx Linux? Mert ugye akkor a CentOS is. Illetve a Debian Linux, mert akkor a Proxmox is.
--
Tertilla; Tisztelem a botladozó embert és nem rokonszenvezem a tökéletessel! Hagyd már abba!; DropBox
- A hozzászóláshoz be kell jelentkezni
Jól látod a helyzetet.
Switch nem kell ebben az esetben. Viszont ha lesz 2 vezérlőd vagy több géped, akkor nem úszod meg a switch betételét és az FC hálózat teljes konfigolását.
FC kártyából Qlogicot használtam, nem volt vele gond. Qlogic OEM partnere is több gyártónak.
- A hozzászóláshoz be kell jelentkezni
Redudancia?
- A hozzászóláshoz be kell jelentkezni
+1
Ugye klaszter mögé a HA verziójú kivitelt nézted? Duál kontroller, duál táp, lehetőleg duál path diszkek. Netapp ugye raid6 azaz tálcák közti tükrözéses diszkvédelem nem megy.
- A hozzászóláshoz be kell jelentkezni
12x600GB HDD, amivel 4TB körüli hasznos tárterületet biztosít.
ezt hogy szamoltad ki? Ill. ahogy folottem is irtak, redundanciara is gyurnod kene, mert ha kiesik pl. a kontroller, akkor azert kaka van...
- A hozzászóláshoz be kell jelentkezni
Kb. reális a 4T, amit ír.
Ezt kb így lehet kihozni FAS2040 esetén:
Ha két controller van, akkor a max. hasznos területet úgy lehet kihozni, hogy az egyik controllert csak failoverre használjuk. Ekkor neki kell 2 diszk raid4-be, amiről bootolni tud. (spare nem kell neki.)
A maradák controller 10 diszkjéből elvesz egyet a spare, kettőt a RaidDP paritás diszkjei.
Marad 7 diszk adatra.
A 600GB-s diszkből effektíve kb. 580GB használható, 7x580 = 4060GB, tehát kb. 4T körül lesz a hasznos terület.
szerk:
A konfig controller és diszk szinten redundáns, az adatkapcsolat 1-1 FC esetén nem lesz az.
Az adatok/futó szolgáltatások kritikusságának függvényében ennyi kockázat még talán beleférhet.
(A rendelkezésre állást egy plusz FC kártya raktáron tartásával lehet javítani, ha megpusztul a szerverben, akkor egy gyors csere, és megy minden tovább.)
- A hozzászóláshoz be kell jelentkezni
A nativ linux-os multipath is tud activ-aktiv-ba működni, sőt jobban is konfigolható mint az PP.
- A hozzászóláshoz be kell jelentkezni
Rhel5 alatt még nagyon nem így volt, mióta van ez így? Ugye beszélni kéne hozzá a storage nyelvét, az meg nem fizetős driver esetén nehéz, bár nem lehetetlen. Anno raktam össze hp c blade qlogic mezzanine kártyához kísérleti qlogic driverrel forrásból, behazudott disztró verzióval, mert asszem 5.2 alá akkor még nem volt hp driver, az alkalmazásnak meg minimum ez kellett, powerpath meg kilógott a büdzséből. Clariion cx700 még AP módban sem komázta a sima multipathd próbálkozásait...
Kevés dologgal szívtam ennyit, mondjuk az egyik büszkeségem is. 3 hétig játszottak vele az üzemeltetők, utána projekthatáridő előtt egy nappal megkértek, ami a szabim előestéje volt. Reggelre kész volt :-)
UI:persze pár héttel később kijött a hp driver :-)
- A hozzászóláshoz be kell jelentkezni
Rhel5 alatt teszteltem IBM XIV-t DS8000-et és DMX-4-et is és mindet tudta csont nélkül a nativ mpath. Sőt olyan szitut is csináltam, hogy 2 különböző gyártó (EMC és IBM) storage-ából kaptam a LUN-okat és mind2-re más config-ot állítottam, mert ezt tudja a nativ mpath még a PP nem.(PP-be sehol nem találtam erre lehetőséget). Továbbá a PP-nek előjött egy nagy hibája, hogy 1024 device fölött meghülyült, és a kblockd process az összes CPU-t 100%-on pörgette emiatt, még a nativ mpath 3000 device-ot is simán kezelt hiba nélkül.
Viszont abban teljesen igazad van, hogy az mpath-al is lehet szopni. Az EMC storage-nál pl 1 hétig szívtunk egy rohadt mpath bug miatt, mert a hivatalos doksi amiből néztük a beállításokat a vendort máshogy írta mint ahogy kellett és emiatt nem vette fel a beállításainkat sőt a defaultot se, amit az mpath elején létrehozol, hanem egy totál idióta beállítást ami miatt a teljesítmény iszonyú szar volt (70%-al rosszabb). A storage oldalról, meg azt láttuk, hogy X percig az 1ik FC van 100%-on még a másik X percbe meg egy teljesen másik. A mpath-nál ajánlom a -v3 vagy nagyobb opciót ilyen esetekbe mert én is csak ott vettem észre, hogy totál más beállításai vannak a LUN-oknak mint amit én beírtam a configba.
Egy kis részlet a mérésekből:
PP-vel a napi betöltésből egy kis szelet:
Read kbyte/sec
516176.67
598996.67
558183.33
Ugynaz a betöltés nativ mpath-al jól bekonfigurálva:
Read kbyte/sec
775961.13
877051.82
877388.60
Összesített időben a betöltés:
nativ mpath: ~9,5 óra
PP: ~ 11 óra
- A hozzászóláshoz be kell jelentkezni
Mihelyst vmotiont, HA/Failover működést, garantált késleltetést, redundanciát, időnként magas io terhelést akarsz kiszolgálni, akkor egyértelműen FC
miert? Nem lehet ezeket iscsi-val is?
- A hozzászóláshoz be kell jelentkezni
iscsi latency magas (az FC-hez viszonyítva) akármit csinálsz vele, ez jön a protokollból, de ez az összes NAS megoldásra is igaz.
De a fenti kijelentéssel mondjuk én sem értek teljesen egyet, a késleltetés és a magas I/O kivételével a többi műk szépen, csak jól kell összerakni.
- A hozzászóláshoz be kell jelentkezni
Ezért választottam el őket vesszővel ÉS kapcsolatot feltételezve az egyes szolgáltatások között.
- A hozzászóláshoz be kell jelentkezni
Oké :-)
- A hozzászóláshoz be kell jelentkezni
Storage-od van, vagy most akarsz venni? Gyakorlatilag a storage tudása dönt el mindent :-)
- A hozzászóláshoz be kell jelentkezni
Azt kellene eldönteni, hogy milyet vegyünk!
--
Tertilla; Tisztelem a botladozó embert és nem rokonszenvezem a tökéletessel! Hagyd már abba!; DropBox
- A hozzászóláshoz be kell jelentkezni
Hány nullában lehet gondolkodni, és mekkora bővülést terveztek?
Ha jól tippelek, akkor alsó kategóriára fogsz lőni, ez esetben minél butább legyen a storage, hogy az adott árban ne a funkciót, hanem a vas teljesítményét fizesd ki.
Nullák száma:
5: pécé hákolás (erre én egy zfs klasztert tennék kis ssd-vel megtámogatva buta DAS(ok) elé iSCSI vagy NFS megoldással, az utóbbit amúgy eléggé tolják a virt vendorok, azaz nem lehet annyira rossz)
6: noname NAS/SAN megoldások (el vagyok kényeztetve, ebben nem tudok segíteni)
6,5: Fujitsu/HP belépő szintű, de meglepően használható SAN cuccai
7: Bármelyik neves storage gyártó alsó közép kategóriás cucca. Itt alapvetően SAN-ra lőnék, de ennyiért már jó NAS is van.
... (igen, van tovább :-) )
- A hozzászóláshoz be kell jelentkezni
Még annyit, hogy egyre több eszköz használható SAN és NAS-ként is.
- A hozzászóláshoz be kell jelentkezni
Tessek mondani, a fel nulla hogy nez ki? :-) Es kitol fel?
--
Ki oda vagyik, hol szall a galamb, elszalasztja a kincset itt alant. | Gentoo Portal
- A hozzászóláshoz be kell jelentkezni
InfiniBand-et is megnézheted, de nem lesz olcsó
- A hozzászóláshoz be kell jelentkezni
Milyen IO igeny van ?
Redundancia
Tarhely igeny netto
Ezek sebessege
es legfokeppen
Mennyit lehet ra kolteni ?
Ez meghataroz mindent.
http://karikasostor.hu - Az autentikus zajforrás.
- A hozzászóláshoz be kell jelentkezni
És mi van akkor, ha bejön a képbe egy 2. lokáció disaster recovery céllal? Milyen eszközök tudnak szinkront tartani a két lokáció között?
- A hozzászóláshoz be kell jelentkezni
Erre storage gyártótól független megoldást javasolnék, mert különben az életben nem szabadulsz a gyártótól, és ha dupla árat kér, azt is kifizeted :-)
Van ilyen egy rakás fajta.
- A hozzászóláshoz be kell jelentkezni
pl?
- A hozzászóláshoz be kell jelentkezni
InMage scout. Oemben több storage gyártó pl Hds és Oracle erre épít
San traffic replikátorok. Appliance megoldása több gyártónak is van.
Veritas
Netapp V series
...
Igényfüggő. Milyen vonalad van, kell e cdp, San v. Nas, oprendszer bevonható e vagy natív storage szolgáltatás kell, alkalmazás üzleti konzisztenciát kell e tartani, stb.
- A hozzászóláshoz be kell jelentkezni
Fusit itt -korábban- többen dicsérték (talán trey, andrej?), és leírás szerint is jónak tűnt, csak azok a f@sz öltönyösök baszták el, hogy vegyünk is olyat. De egy kört megérhet.
- A hozzászóláshoz be kell jelentkezni
Több helyen is használunk élesben Fujitsu DX60-at, DX80, DX90-et 1Gbit/s iSCSI kontrollerpárokkal VMware-rel. VMotion, Storage VMotion, lop, szop, bakot ugrik. Teljesítménye SMB-re kielégítő.
Andrej tőlem vette. Eddig nem panaszkodott. Vagy nem mert :D
Ezekben a vasakban el lehet indulni akár 6/3 Gbit/s SAS vagy 1Gbit/s iSCSI host interface-ekkel, amik később igény szerint cserélhetők 10Gbit/s iSCSI-re, 8/4/2 Gbit/s FC-re vagy 10Gbit/s FCoE-re. A doboz ugyanaz marad. Viszonylag kis befektetéssel indítható a projekt, majd ha lesz még lóvé, akkor lehet bővülni.
--
trey @ gépház
- A hozzászóláshoz be kell jelentkezni
Az itt nem fordul elő, hogy nem merünk panaszkodni. :) Hyper-V-vel is remekül megy a live migration. Még azt is kipróbáltuk hogy a VoIP-os (Asterisk, semmi extra) VPS beszélgetés közben mit szól a live migrationhoz. Egy fél szó maradt csak ki, az is a switchport/mac változás miatt valszin. :) Ez mondjuk nem pont a storage érdeme, de jó volt.
- A hozzászóláshoz be kell jelentkezni
A sima DX80-as nagyon pöpecul megy valóban, de azóta már van DX80S2 is. A DX80-on 2x2 1Gbit-es iSCSI port van rajta és mi 4 Win2k8r2-re pakoltuk rá, amiken Hyper-V van. Megy az iSCSI active-active felállás is a két vezérlőre és elcsoszog. Itt nincs különösebb IO igény, hanem a stabilitás az ami számít. A DX80-at bekapcsoltuk, megy és amit ráírtak azt szépen hozza.
Azóta egy másik projektnél/cégnél egy Infortrend 8G-s FC dobozt is megnéztünk és az is szépen hasított, bár a webes admin felület messze elmarad a Fujitsu-tól. Az Infortrend előnye, hogy 2x4 FC vagy iSCSI portot tud, illetve nekik is van hibrid cuccuk. További előnye, hogy nincs diszk hisztéria sem, bár ez erősen ízlés kérdése. Én inkább szavazok "sima" SAS diszkes megoldásra, úgy hogy a polcra teszünk N darab tartalékot, az X órán belüli érkezőssel szemben. (Szerverteremben lesz a pakk, ezért nélkülünk úgysem fér hozzá a szupportos.) Erről már volt N darab thread itt, ne kezdjünk újat. :)
Jahh a teszthez kaptunk vinyókat is és érdekelne hogy az alábbi együttállást hogy sikerült összehozni:
- Dell Enterprise diszkek
- WD (igen, western digital) antisztatikus zacskóban
- A diszkek típusa ST..., tehát a Seagate 600GB/15kRPM-es volt...
- A hozzászóláshoz be kell jelentkezni
Tanultak a hypermarketektol, es atcimkezik a szemetek! :) Valojaban ide-s quantumok, neoluxszal lefujva a nyak :)
- A hozzászóláshoz be kell jelentkezni
Hát ha tudom, hogy IDE-s quantum, akkor a franc se kér tesztre csak kiborítjuk a szekrényt. :)
- A hozzászóláshoz be kell jelentkezni
mondd mar, nekem 1x azt akarta valaki beadni, hogy szerverbe valo (normalis) diszket 2 helyen gyartanak a vilagon, es az osszes major vendor ezekre teszi ra a sajat firmware-et + cimkejet :-))
- A hozzászóláshoz be kell jelentkezni