Sziasztok!
Szukseg lenne egy nagy teljesitmenyu, dinamikusan bovitheto SAN - esetleg NAS, de szerintem ez mar nem az a kategoria - eszkozre. A bovithetoseg a tarhely kapacitasa es a redundancia - "geocluster" - teren is fontos. Szam szerint is es fajtara is tobb szolgaltatas szervert kellene kiszolgalnia (pl.: SMTP-, IMAP-, POP3-, FTP-, SQL-, WEB- stb. clusterek). Szinten nem elhanyagolhato szempont, hogy IPv6-al is tudjon kommunikalni.
Nagyjabol ezen informaciok alapjan tobb fele ajanlatot kaptam:
-2db SUN StorageTek 6180 8*600GB + _4db_ Brocade 300 24port FC switch: ~50-57MHUF (site-to-site mirror)
-3db SUN FireX4270 M2 18*300GB (kicsit masfele kialakitas: az egyik oldalon 2 gep mirror + masik oldalon az egyik oldalrol mirror 1 gepre): ~18MHUF
-2*Coraid SR1621 16*500GB + SP-2000 server (nexenta free edition): ~9,3MHUF
-2*Coraid SRx2800-G 16*500GB + SP-2000 server (nexenta free edition): ~13MHUF
Tud valaki segiteni abban - a tapasztalataira epitve :) -, hogy a majd 60M-ba kerulo SUN eszkoz miert lenne jobb valasztas - mar ha az -, vagy a Coraid - ami joval olcsobb - miert ne lenne megfelelo az emlitett - vagy meg nem emlitett :) - kivanalmaknak?
Elore is koszonok minden epito jellegu hozzaszolast!
- 3312 megtekintés
Hozzászólások
Milyen mesze van a két site egymástól? A StorageTek 6180 és a Coraid nemcsak árban nincs egy súlycsoportban. Az előbbi egy teljesen redundáns FC-storage (kontroller is), ha jól néztem, a Coraid meg AoE (ATA over Ethernet) cucc, és csak a táp van duplázva. Mondjuk ha már 50-57Misi és full redundancia, akkor Fc-switchből is illene két darabot berakni - sokat nem fog dobni az áron.
- A hozzászóláshoz be kell jelentkezni
A ket site ket kulonbozo szerverteremben van es meg ott van koztuk a Duna is, ugyhogy nem a szomszedban... :) Elnezest! A switch-ek 4-en vannak... javitottam! :)
- A hozzászóláshoz be kell jelentkezni
Ebbol szamomra nem derult ki hogy az a fontos hogy:
a.) a primary site-on legyen meglehetosen izmos a storage, a secondary site csak backup miatt kell
b.) mindket site-on kapja a terhelest, ezert a rendszer elosztottsaga a fontos (nyilvan ez vmelyest kizarja az extrem sebesseget)
Az elso esetre tudom ajanlani az IBM DS3/4/5/6/8000 storage szervereket, masodik esetre pedig ott az uj SONAS:
http://www-03.ibm.com/systems/storage/network/sonas/
- A hozzászóláshoz be kell jelentkezni
Jelen pillanatban nem teszi lehetove a halozati kialakitas sem, hogy failover lehessen a ket site kozott, de tervbe van veve idovel. Az elso ket ajanlat mar a failover-re epul, ha jol gondolom lehet utemezve kerni. A masodik ket ajanlat eseteben meg csak az egy site van meg, de a szerver fel van keszitve a masodik site fogadasara. Kaptam info-t IBM szerverekrol is, de azt hallottam, hogy a licence-eles megduplaza az arakat (lehet, hogy nem igy van...). Jo lenne korlatok nelkul hozzacsatlakoztatni eszkozoket...
- A hozzászóláshoz be kell jelentkezni
Az IBM DS4xxx sorozatu storage-ben a 'storage partitioning' (nagyjabol az, hogy hany kulonbozo szervert csatlakoztatsz hozza) iszonyu draga tud lenni. De, mint minden szoftverlicenszt, a hirtelen kiderul, hogy verseny van es versenytars, es az IBM meg akarja nyerni, akkor tudja (szinte) ingyen is adni.
- A hozzászóláshoz be kell jelentkezni
Erdekelne, hogy kihez kell forduljak a versenyeztetest illetoen... :)
- A hozzászóláshoz be kell jelentkezni
MEgemlíted az IBM kereskedőnek, hogy az EMC-től a HP-tól és a Dell től is kértél már ajánlatot.... :)
- A hozzászóláshoz be kell jelentkezni
lehet utemezve kerni.
Ezek tul draga eszkozok hozza, hogy valodi ara legyen. Veszel egyet, beteszed az egyik site-ra. Eltelik fel ev, vennel a masik site-ra is. Tavoli tukrozes szempontjabol egy gyarto cucca csak sajat magaval kompatibilis (IBM az IBM-mel, NetAPP a NetAPP-pal), igy kialakul az elso varsarlas utan a vendor lock in. Ha tehat kesobb vennel a mesik site-ra, akkor erdekes meglepetesben lesz reszed.
Nalunk (egyetem) a GYARTO1 storage volt az egyik helyen, kertunk masik telephelyre arat, megmondtak (csodalkoztunk...) kertunk GYARTO2 -tol mind a ket telephelyre arat es az olcsobb volt, mint a GYARTO1 bovitese. Migraltunk.
- A hozzászóláshoz be kell jelentkezni
Ez igy egy kisse keves input.
A ket site tavolsaga, sync vagy async mirror, I/O igeny, stb.
A Coraid-et nem ismerem, de nalam elso korben kiesne a SATA
diszkek miatt (SQL) es az FC interface hianya miatt.
A 6180-nal az a kerdes, hogy a 8-8 diszk nem lesz-e keves (I/O)?
En igy allnek neki:
SiteA: FC storage + dual fabric SAN
SiteB: FC storage + dual fabric SAN
A ketto kozott sync mirrorral.
Ez eddig 2 db storage es 4 db FC switch.
A Brocade 300 teljesen jo, alapbol 8 port, 8 portonkent bovitheto 24 portig.
A storage meretezestol fuggo tipusu es szamu diszkekkel.
Kezdesnek en kernek ajanlatot IBM DS3500-ra.
- A hozzászóláshoz be kell jelentkezni
Ket site tavolsaga... (ld. feljebb) Elso korben async, ha mar a halozat is birja akkor sync -> ugy kell gondolkodni, hogy nagyobb beruhazas illetve ujratervezes nelkul bovitheto legyen sync-re. I/O igeny: meg nem teljesen korvonalazodott, de azok a szolgaltatasok futnanak rajta amiket irtam.
Asszem' 6-6-6 disk lenne benne, ha jol vettem ki az ajanlatbol akkor ezek meg bovithetok, de rakerdezek!
Ha jol ertelek akkor a ket site-on egy-egy IBM DS3500 ket-ket Brocade 300-as 8-8 portos FC switch-el modjuk 8-8 (vagy tobb...) SAS disk-kel?
- A hozzászóláshoz be kell jelentkezni
Ha jol ertelek akkor a ket site-on egy-egy IBM DS3500 ket-ket Brocade 300-as
8-8 portos FC switch-el modjuk 8-8 (vagy tobb...) SAS disk-kel?
Igen, valami ilyesmire gondoltam.
A diszkek szamat es tipusat a rendelkezesre allo info alapjan nem lehet
hasrautessel megmondani. Storage-ot elsosorban nem tarteruletre, hanem
I/O-ra szokas meretezni. A RAID level, az I/O igeny es az elerni kivant
tarterulet nagysaga eros hatassal van az alkalmazando diszkek szamara es
tipusara. ;)
- A hozzászóláshoz be kell jelentkezni
"Szinten nem elhanyagolhato szempont, hogy IPv6-al is tudjon kommunikalni."
Miért? Ha SAN storage-ot veszel, annak max a menedzsment felülete fog ipv6-ot tudni, ha erre gondolsz.
"geocluster"
Szép szó, de mit szeretnél? A Sun storage-hez kapott "site-to-site" mirrorral pl. kicsit körülményes geo HA clustert csinálni. A storage-ok közti tükrözéseket leginkább disaster recovery célokra használják, vagyis a tükör egyik fele legjobb esetben is read-only módon csatolható hosthoz. (Persze nem megoldhatatlan a HA cluster sem , csak jóval többet kell scriptelni meg hackelni, mintha csak simán host oldali tükrözés lenne helyi és távoli storage-ra.)
Ja, és írta már más is: kérj ajánlatot IBM-re. Kiegészítem: és EMC-re is (pl. Cx4-120).
A Coraid vs. Sun témához: a sun-ban pl. 15000rpm-es, 4Gbit -es FC diszkek vannak a Coraid-ban SATA. A Sun-ban a redundáns storage controller üzem közben is cserélhető IO vesztés nélkül.stb.
Baromira nem egy súlycsoport.
"Tud valaki segiteni abban..."
Annyi info alapján amit megadtál, bármelyik jó lehet.
Én azt javasolnám, hogy keressetek valakit, aki ilyenekkel foglalkozik, és kérd meg, hogy tervezze meg a megoldást. Elég sok szempontot kell figyelembe venni egy ilyen storage projektben, ahhoz, hogy később ne legyen semmi probléma.
- A hozzászóláshoz be kell jelentkezni
a unified storagen ha szeretnel site-to-site mirrort azt kb 5 perc felkonfizni. regen voltak gyerekbetegsegei, de az uj FWben mar minden okes, ugy tudom.
- A hozzászóláshoz be kell jelentkezni
kérj ajánlatot IBM-re. Kiegészítem: és EMC-re is (pl. Cx4-120)
Az EMC-t direkt nem irtam, mert velemenyem szerint a CX4 sorozat elso
ket tagja igen szerencsetlenre sikeredett (120 & 240).
Hiaba a marketing 3 vagy 4GB cache kontrollerenkent, ha ennek nagyobbik
reszet felzabalja az oprendszer. Alig marad belole valami, kb. annyi,
mint egy jobbfajta SmartArray vezerlon...
A nagyobbak meg arban igen utosek, ha kettot kell venni, az lehet hogy
anyagilag agyonverne ezt a projektet ;)
Ugy altalaban a 120-as helyett erdemes lehet megfontolni az AX4-et,
mert csekely cache-veszteseg mellett legalabb olcsobb, es a PowerPath
is ingyen hasznalhato vele.
- A hozzászóláshoz be kell jelentkezni
Igen, de az IPv6 sem elhanyagolhato... :) Tervek kozott szerepel a bevezetese is es problemas lenne olyan eszkozbe beruhazni amit kesobb emiatt kellene lecserelni vagy ujbol kolteni ra.
Az IBM-re mindenkepp kerek meg ajanlatot es az EMC-t is megprobalom! Koszonom a tippeket!
"keressetek valakit, aki ilyenekkel foglalkozik, és kérd meg, hogy tervezze meg a megoldást"
Ez a ket ajanlat is igy szuletett... :) Meg jobban at szeretnem latni a dolgokat, hogy en is tobb infot tudjak adni a fonokeimnek a megfelelo eszkoz kivalasztasaban - amivel kesobb sem lesz sok gond -, ezert puhatolozom...
- A hozzászóláshoz be kell jelentkezni
Erdemes szamitasba venni az adatreplikaciot is. Mi Solarison nezegettuk az AVS-t, de egy SRDF vagy TrueCopy sokkal tisztessegesebbnek tunik, ezt meg az olcsobb megoldasok nem tudjak.
--
Fedora, RHEL, CentOS, virtualizáció, SELinux: http://sys-admin.hu
- A hozzászóláshoz be kell jelentkezni
Az olcsobb alatt az emlitett 3 szervert erted?
- A hozzászóláshoz be kell jelentkezni
Én komoly rendszert nem bíznék olyanra, ami nem egy túlságosan elterjedt/támogatott technológia (Coraid), főleg ha le is írtál egy 50-60M körüli árat. A Sunt nem ismerem, de rajta kívül elég sok egyéb, komoly alternatíva van, más-más erősségekkel: NetApp, EMC (ezek konkrétan a piacvezetők).
A kiírás is több helyen problémás, mert SAS és SATA lemezek és darabszámaik nagyon eltérőek, ilyen nagyságrendnél esetleg inkább FC lemezek lesznek. Esetleg érdemes visszalépni egyet a specifikációhoz és pontosítani. Még akár az SSD-ket sem kellene kihagyni...
Az IPv6 igénye számomra sem világos. (Távoli replikáció során lenne rá szükség, mert az IP alapon menne?)
A "geocluster" fogalma mindenképpen pontosítandó, ha konkrét műszaki megoldásra van szükség, mert ez nem feltétlenül csak tároló rendszer kérdése, hanem alkalmazás és hálózat is nagyon könnyen képbe jöhet.
- A hozzászóláshoz be kell jelentkezni
Még annyit hozzátennék, hogy egy ilyen jellegű tároló kiválasztása esetén mindenképpen célszerű lenne egyéb üzleti igényeket és folyamatokat felmérni, mert például egy NetApp jó eséllyel más területen is nagyon hasznos lehet: például tesztrendszer generálás, dokumentum archívum, fájlszerver (CIFS és NFS) - ezek más oldalról jelentősen egyszerűsíthetnek dolgokat (vagy akár olyan dolgokat lehet vele megvalósítani, amire amúgy nem is nagyon lenne lehetőség: például egy jelentősebb méretű adatbázis másolása tesztelésre).
Azaz: mielőtt felmerül akár egyetlen márka és lemeztípus is, célszerű sorra venni a követelményeket (milyen replikáció, milyen IOPS igény, milyen alkalmazások használnák stb stb), mert ha már ott van a vas, akkor drága más irányba csavarni a kormányt.
Szerintem ez nem az a nagyságrend, hogy fórumon ötletek alapján legyen összedobva és kiválasztva valami: senkinek semmilyen felelőssége nincsen, és ha nincs a beruházói oldalról kellő tapasztalat a témában (márpedig úgy tűnik, hogy nincs), akkor könnyen el lehet sikkadni lényeges pontok mellett, vagy mellékes szempontokat indokolatlanul felnagyítani.
Ha bármire szükség lenne, állunk rendelkezésre, egy kötetlen beszélgetésnek semmilyen kockázata nincsen részetekről, legfeljebb tanultok valamit.
Egy infrastruktúrában a tároló rendszer az egyik olyan megoldás, amit a legnehezebb/leglassabban lehet lecserélni (egyrészt technológiailag meghatározó, másrészt anyagilag is elég jelentős összeget képvisel).
- A hozzászóláshoz be kell jelentkezni
"Szerintem ez nem az a nagyságrend, hogy fórumon ötletek alapján legyen összedobva és kiválasztva valami: senkinek semmilyen felelőssége nincsen, és ha nincs a beruházói oldalról kellő tapasztalat a témában (márpedig úgy tűnik, hogy nincs), akkor könnyen el lehet sikkadni lényeges pontok mellett, vagy mellékes szempontokat indokolatlanul felnagyítani."
Nem, valoban nincs tapasztalat.
"Ha bármire szükség lenne, állunk rendelkezésre, egy kötetlen beszélgetésnek semmilyen kockázata nincsen részetekről, legfeljebb tanultok valamit."
Ha megoldhato, elnek vele!
- A hozzászóláshoz be kell jelentkezni
"Én komoly rendszert nem bíznék olyanra, ami nem egy túlságosan elterjedt/támogatott technológia (Coraid)"
Igen egyre tobben mondjatok, hogy a coraid nem lenne jo valasztas...
"Még akár az SSD-ket sem kellene kihagyni..."
Egyelore semmi sincs kicsukva... :)
"A "geocluster" fogalma mindenképpen pontosítandó, ha konkrét műszaki megoldásra van szükség"
Ezt a szot NagyZ-tol lestem el egy masik topic-bol, mert ott is hasonlorol volt szo. Ha meg pontositast igenyel a fentebb leirtak, kerlek kerdezz...
- A hozzászóláshoz be kell jelentkezni
a 6180 felejtos, szerintem nezz unified storaget (7xxx szeria). az 50-57M -bol siman lehet alkudni, site-to-site mirrort tud az is.
nem off-the-shelf (nexenta) megoldassal ne szopasd magad, hacsak nem vagy/nem tudsz fenntartani olyan NOCot, aki nagyon penge.
- A hozzászóláshoz be kell jelentkezni
Mivel nem mondasz semmi pontosat -> Két storage közötti távolság, egyéb fontos paraméterek, ezért ezt rohadtul nehéz megmondani.
Én a helyedben a sok ajánlat közé beszúrnám ezt is (saját tapasztalat, tényleg k. jó, érdemes vetni egy pillantást a Hitachi féle Active-Active Symmetric controllerre, ami majdnem olyan mint az IBM féle Dual Active, csak pont h. jobb :) ):
http://www.hds.com/products/storage-systems/adaptable-modular-storage-2…
Pár megjegyzés: ha 300m-en belül vagy, akkor szinte bármelyik cucc tud neked olyat csinálni amit szeretnél (geocluster, bár ezt kvára nem annak nevezném, nem pont egy New York - Tokio távolság), lássuk a lehetőséget (bocs a Sunos kollégáktól, passzolok h. ott mi-mi):
IBM - Remote Mirror Base v. Enhanced
EMC - Mirror View
Hitachi - TrueCopy
End of reklám :)
- A hozzászóláshoz be kell jelentkezni
Amiknek leírtad az árait, azok szezon a fazonnal így nem is lehet összehasonlítani...
A 6180 egy midrange storage eszköz.
Először is sorba kéne venni, hogy mit szeretnél, aztán meghatározni, milyen kategóriára van szükséged, onnantól lehet árakat összehasonlítani..
- A hozzászóláshoz be kell jelentkezni
Korbeneznek a helyedben a HP haza tajan is.
EVA nem egy rossz dolog, mindenesetre pl. Cx4 helyett biztos erre szavaznek, nekem nem jott be a Cx4, a netApp meg IBM kategoriaval dragabb volt ugyanabban a szegmensben.
Mindenesetre az, hogy mennyi az annyi IO, tarterulet egyeb amit mar sokan felsoroltak az nem mindegy. Esetenkent jelentos szorzoszamot kepviselhet.
Coraiddal van tapasztalatom, nem egy IO bajnok, es adat korrupcio is volt, ellenben olcso, az amit te irtal az Coraid szintjen eleg draga. Igaz ezek meg SR1521 viszonylatban szulettek. Kicsi teljesitmenyu adatbazis ala megfelel, de egy 100 fo koruli levelezorendszer mar kifekteti.
- A hozzászóláshoz be kell jelentkezni
100 fős levelezőrendszer?
Ne viccelj, az picsa, szalonképesen megfogalmazva.
Nálunk olyan 200+ fős Novell GRpwise-t egy natúr Xen-es környezet szolgál ki (Ibm 3550 m2) másik jópár virtuális géppel osztozva, és nem a Mail fogja a szervert....
Átállás van Exch-re pont, és tapasztalataim szerint 100-200 főnél az se vészes abszolút mai IO teljesítményben, még ha email alapú kommunikáció a preferált.
Milyen 100 fős levelezés az ami egy storage-t lerak nullára?
- A hozzászóláshoz be kell jelentkezni
Nemertelek, hogy jon ahhoz a XEN, hogy nem birja a storage ?
Ezzel csak a sata diszkek, es a coraid gyengeseget szandekoztam jelezni, tapasztalatombol.
Az, hogy megfekteti azert tulzas, de lassu volt mint a dog, erteni 2000 levelet tartalmazo mappa kb. 25-30 sec. nekem ez kimeriti a lassu fogalmat.
100 az a nagyjabol egyszerre bentlevok szama, nem osszletszam.
- A hozzászóláshoz be kell jelentkezni
érzékeltetésnek írtam, hogy egy bizonyos raidet egyszerre x rendszer cincál, közülük egy hasonló levelezés, és semmi baja :)
ezek szerint coraidet messze kerülöm ..
- A hozzászóláshoz be kell jelentkezni
Coraid arahoz kepest nem rossz, csak utolag rajove, es masoktol hallva maskepp kell skalazni.
Egy doboz nemdoboz alapon, akiknek volt dolga vele, azok a legalabb 3 doboz es kosd ossze oket, majd ebbol dolgozzal, es ugy igen csak jo eredmenyeket tud velemenyen voltak.
- A hozzászóláshoz be kell jelentkezni
Egy csomó jogos kérdést feltettek már a többiek, ezeket valóban nem árt tisztázni, mielőtt választasz (egy kereskedő persze ennyi adat alapján is tudna neked ajánlani valami jó drágát :).
A fentebb már említett NetApp (náluk annyira nem ismert, mint az EMC vagy HP, de ha megnézzük a Gartner Magic Quadrant-ját, akkor a NetApp igen előkelő helyet foglal el a storage gyártók között) szerintem is egy jó választás lehet, mert:
- SAN (FC, iSCSI) és NAS-ként (NFS, CIFS) is képes működni egyszerre, alapból van benne FC és Ethernet port, melyek száma a típustól függően bővíthető (és tud FCoE-t is).
- A bővíthetősége az egyik erőssége. Ha több tárhely kell, akkor veszel hozzá újabb polcot, ha nagyobb teljesítmény, akkor meg lecseréled a kontrollert (nem kell kidobni a teljes rendszer, migrálni az adatokat, új rendszert megtanulni stb.). Keress rá arra, hogy "netapp unified storage", ha ez a rész bővebben is érdekel.
- Az általad felsorolt protokollok közül az FTP-t és a HTTP-t alapból is tudja (csak statikus kiszolgálás).
- Tud IPv6-ot (iSCSI, HTTP/HTTPS, NFS, CIFS, adminisztráció).
- Ezen kívül alapból tud szinkronizálni (sync, async, semi sync), deduplikálni és egy csomó dolgot, amit mások néha nyakatekert módon oldanak meg x millió forintért.
- Hatalmas erőssége a snapshot kezelés. A többi gyártótól eltérően nem 2-3, hanem 255 snapshot-ot tud különösebb teljesítmény veszteség nélkül kezelni.
- RAID4-et és RAIDDP-t tud. Erre páran biztos felszisszennek, hogy ez lassú és öli a paritás diszket. Nos itt nem (google: "netapp raid6 performance").
- Nagyon jó random write teljesítménye.
- Egyszerű integráció Linux/UNIX, VMware és Windows környezetben.
A fenti lista közel sem teljes, próbáltam az általad említett követelményekhez szorosan kapcsolódókat kiemelni.
Ha érdekel, akkor tudok neked mutatni egy olyan működő rendszert, ami szerintem nagyjából lefedi az általad leírtakat.
- A hozzászóláshoz be kell jelentkezni
Elég jól összeszedted :-)
Bár explicit nem szerepel a kiírásban, de nagyon nem utolsó szempont, hogy nagyon jól szkriptelhető.
- A hozzászóláshoz be kell jelentkezni
"Ha érdekel, akkor tudok neked mutatni egy olyan működő rendszert, ami szerintem nagyjából lefedi az általad leírtakat."
Ezzel a lehetoseggel is elnek, ha meg fenntartod! :)
- A hozzászóláshoz be kell jelentkezni
Természetesen fenntartom. Ment pü.
- A hozzászóláshoz be kell jelentkezni
egy szakira lenne szukseged, aki mar csinalt ilyet...
kismillio integrator ceg van, akik kozul 78% durvan atbasz, es eladja neked a dragat, es 22% meg talal neked egy jo ar/teljesitmeny aranyu megoldast. Csak ki kell fogni.
Nem megyek bele a technikai reszletekbe, abba belement mar mas.
Egyebkent mindent lehet, tobb telephelyes clustert, extrem magas rendelkezesreallast, linuxot, webet, mailt, katasztrofaturest. Es ezek tobbseget barmely gyartotol. Ahogy neztem, az eddigi hozzaszolok kozott nem egy olyan szaki van, aki ilyen rendszerek tervezesebol/epitesebol/uzemeltetesebol el. Persze, hogy raindulak, egy valamirevalo ket telephelyes kiepitesu rendszerbe el lehet adni 300 mernokorat siman.
En is raindultam :-)
- A hozzászóláshoz be kell jelentkezni
Johogy raindul az ember a jora.... :) :)
Az ilyen melot azert is szeretem, mert kicsit tobb kreativitast es tervezest igenyel mint az "atlagos" n+1-edik szerver+storage install....
- A hozzászóláshoz be kell jelentkezni
Tud valaki segiteni abban - a tapasztalataira epitve :) -, hogy a majd 60M-ba kerulo SUN eszkoz miert lenne jobb valasztas - mar ha az -, vagy a Coraid - ami joval olcsobb - miert ne lenne megfelelo az emlitett - vagy meg nem emlitett :) - kivanalmaknak?
A coraid lenyegeben supermicro dobozokat ad el, sajat (linux) szoftverrel, nagyon marginalis haszonressel. Technikailag SAN (storage area network) de mig mindenki mas ezalatt az FC-re ultetett SCSI protokolt erti, a Coraid ethernetre ultetett ata protokolt hasznalja.
A SUN ezzel szemben lenyegeben sun dobozokat ad el, sajat (solaris) szoftverrel, khm, haszonressel.
Elegge mas ligaban versenyeznek, mindegyik kivallo eszkoz... valamire.
Egy lazan bovitheto midrange storage 60 misi. A midrange storage egyik jellemzo tulajdonsaga, hogy megy. Mindig. Hozzanyulas nelkul. Hasonlo diszk darabszamot tecso peeceebol, linuxszal ki lehet hozni 1-3 misibol. 4 eves aktiv hasznalatot feltetelezve a cuccnak, ez evente mintegy 15 misivel dragabb a midrange storage a olcso linux doboznal. A tecso peecee+linux egyik jellemzo tulajdonsaga, hogy buheralni kell. Elvileg lehet 4 even keresztul stabilan, megbizhatoan uzemeletetni olcsodobozt is, azonban ehez egy igenycsak elvonalbeli es megbizhato es lelkes es motivalt ember kell, folyamatosan erre az egy feladatra dedikalva. Az atlag bank midrange storaget vesz. Ezzel azt jelenti ki, hogy az élvonalbeli, lelkes, motivált stb szakember evi 15 misinel tobbe faj. Es valoban. Legfokeppen azert, mert nincs :-)
A coraid mar egy rendesebb hazban levo, betesztelt diszkekkel jovo linuxos doboz. Valahol ut kozben van a tecso peecee es egy midrange storage kozott. Az arat latod, nem? annyira van ut kozben :-)
Amikor egy midrange storaget veszel, a beker koltseg tulnyomo tobbseget a megbizhatosagra koltod el.
Azt hiszem, precizen valaszoltam a kerdesedre. Sajat tapasztalat alapjan.
- A hozzászóláshoz be kell jelentkezni
Csak a pontosság kedvéért: a Coraid dobozokon nem Linux, hanem Plan 9 operációs rendszer fut.
- A hozzászóláshoz be kell jelentkezni
A SUN ezzel szemben lenyegeben sun dobozokat ad el, sajat (solaris) szoftverrel, khm, haszonressel.
Csak a pontosság kedvéért: a 6180 egy LSI Logic (Engenio) termék, amit a Sun (is) OEM-el - meg többek között pl. az IBM is.
- A hozzászóláshoz be kell jelentkezni
"Azt hiszem, precizen valaszoltam a kerdesedre. Sajat tapasztalat alapjan."
Ezt is nagyon koszonom! :)
- A hozzászóláshoz be kell jelentkezni
subscribe
- A hozzászóláshoz be kell jelentkezni
+1
- A hozzászóláshoz be kell jelentkezni
Szerintem néhány paraméternél pontosítani kéne az elvárásokat/koncepciót:
- geocluster cím alatt mit is szeretnél csinálni; van-e ehhez megfelelő sávszélesség egyáltalán?
- IOPS igény?
- kapacitásigény?
- milyen kliensek vannak? van, akinek nem jó az FC? van, akinek nem jó az iSCSI? van, akinek nem jó az IP (NAS funkcionalitás)?
- A hozzászóláshoz be kell jelentkezni
-"geocluster" feljebb kicsit kifejtettem, ha nem teljesen erthetoen szolj!
-IOPS: konkret adato ninsenek.. :( fenntebb emlitett alkalmazasokat szolgalna ki...
-Kapacitas: jelenleg par terrana tobbre nincs szukseg, de ugye a dinamikusan bovules... :)
-A kliensek java reszt - egyelore nem tudok masrol - linux oprendszerel felszerelt leginkabb IBM - nem tul fiatal - szerverek, tervezve van kesobbiek soran blade rendszer kialakitasa...
- A hozzászóláshoz be kell jelentkezni
-"geocluster" feljebb kicsit kifejtettem, ha nem teljesen erthetoen szolj!
Szerintem nem találtam meg, hogy mire is gondolsz, egy linket ha dobnál arra a hozzászólásra, ahol kifejted.
-IOPS: konkret adato ninsenek.. :( fenntebb emlitett alkalmazasokat szolgalna ki...
Na most akkor visszakérdezek: akkor ki és honnan találta ki, hogy mennyi és milyen diszk legyen a dobozban?!?!?!? Ez így nem megy, ez így a ráolvasásos gyógyítással egyenértékű, ha valaki a semmire alapozva mond konfigot, árat. Az, hogy SMTP, meg SQL, abba bármi beleférhet. Ismerek olyan Oracle adatbázisszervert, ami mögött 150-200 diszk dolgozik egy < 1 TB-os adatbázis alatt.
A dolog ott lett nekem gyanús, hogy élő ember 2x8 db diszkes rendszert be mert mondani ~50 millióért.
"Ennyire hülye ügyfél nem létezik" - mármint aki ezt megveszi. Ha már megveszek egy kiba nagy és sokat tudó dobozt, majd az induló konfigot is csak félig töltöm diszkekkel, akkor hülye vagyok. Plusz pár millió, és 2x8 helyett 2x16 diszk lenne benne, ami kapásból duplázná a rendszer teljesítményét.
-Kapacitas: jelenleg par terrana tobbre nincs szukseg, de ugye a dinamikusan bovules... :)
Ergó: a diszkek darabszámát nem a kapacitásigény fogja meghatározni, hanem az IOPS, hiszen néhány darab diszk simán adja a pár terát, míg nyilvánvaló, hogy IOPS-ban ez még gyenguska.
-A kliensek java reszt - egyelore nem tudok masrol - linux oprendszerel felszerelt leginkabb IBM - nem tul fiatal - szerverek, tervezve van kesobbiek soran blade rendszer kialakitasa...
Na ezzel az lesz a gond, hogy bármilyen eszközt vesztek, nagyon hamar bele fogtok esni abba a gödörbe, hogy a storage szállító mondja meg, hogy
- milyen op.rendszer
- milyen verziója
- milyen interfész kártya
- milyen firmware/driver verziója
az, amivel a rendszer működni fog. Ha mást használtok, akkor ain't no support. Pl. vannak Debian-mániás felhasználók, akik döbbenten szokták felfedezni, hogy a kedvenc Linuxukat jellemzően egyetlen storage vendor sem támogatja explicite, csak ilyeneket, hogy RedHat, meg Suse. Persze "szokott" működni az is, csak néha van gond. De ez ritkán vígasztalja azokat, akik több 10 milliót kiszórnak a storage-ra.
Az alternatív megoldás, hogy kevésbé neccess protokollokat használunk (pl. NFS, CIFS), vagy kidobjuk a régi/unsupported szarokat.
- A hozzászóláshoz be kell jelentkezni
bármilyen eszközt vesztek, nagyon hamar bele fogtok esni abba a gödörbe,
hogy a storage szállító mondja meg...
Nagy igazsagot irtal.
Egyebkent ez a hozzaszolasod egybol mehetne is sticky-be a thread elejere.
- A hozzászóláshoz be kell jelentkezni
tervezve van kesobbiek soran blade rendszer kialakitasa...
Lehet hogy nem kesobb kellene, hanem azzal kezdeni.
Tetelezzuk fel hogy mar megvan a storage, a ket FC switch meg a 3 szerver
mindket site-on. Vesztek egy (ket) blade-keretet, es hozza szeretnetek illeszteni
a meglevo cucchoz. Az elado legnagyobb oromere egybol lehet venni a keret(ek)be
is 2 (4) FC switchet vagy pass-thru modult, egyik sem olcso mulatsag.
Akkor mar erdemesebb egybol megvenni a blade-keretet, es az abban levo
FC switch kulso portjaira csatlakoztatni a szervereket meg a storage-ot.
- A hozzászóláshoz be kell jelentkezni
Van valakinek Nexentastor tapasztalata? Elsosorban a fizetos dolgok erdekelnenek (HA, CDP). Ha jol latom, a Coraid a free verzioval mukodik. Mivel a nexenta CDP alatt is Sun StorageTek van, gyakorlatilag a 2 verzio kozott funkcionalisan csak a vas a kulonbseg? (a fizetos nexenta eseten persze)
- A hozzászóláshoz be kell jelentkezni
Üdv,
A műszaki kérdések úgyis csak a pontos környezetnél derülnek ki :) Viszont mivel itt már többen javallották a nagy gyártókat, egyet még hozzácsapnék, akiket érdemes megfuttatni: Fujitsu. Az eternus sorozatuk san vonalon egész érdekes.
- A hozzászóláshoz be kell jelentkezni
Jogos.
Az Fujitsu Eternus sorozatból a kicsik közül csak a DX90-es tud távoli replikációt ha jól emlékszem (Remote Advanced Copy vagy valami hasonló). Én DX80-assal dolgoztam egy keveset és néhány apróságtól eltekintve meg voltam vele elégedve. Elég jó árban volt, de nem is hasonlítható össze funkcionalitásban egy NetApp-pal. :)
- A hozzászóláshoz be kell jelentkezni