a vege az lett, hogy ugy dontottunk epitunk egy kicsit, teszt celra, ha bevalik, akkor pedig johet a nagy.
a vegleges parameterek (most rendeltem meg):
- Supermicro X9SCM-F
- E3-1230v2
- Fractal Design Arc Mini haz
- SAS HBAkent Intel SASUC8I (osszesen 8xSAS), nem raid modban
- 5x Seagate 1TB
- 2x Intel 520 256GB
- 3x Intel 330 60GB (2xRAID1 rendszer, 1x L2ARC)
- Chelsio T420-CR, igy a halozat fele 2x10Gbit lesz
amint megjon rakok fel kepeket meg benchmarkolok, foleg, hogy szeretnenk dedupot is, ami izgalmas kerdes (sok az ~egyforma VM)
benchmark tippek johetnek.
- 43726 megtekintés
Hozzászólások
Mi is eleg sokat nezegettuk a wd red-et, de ez a butitott intellipoweres rpm nem meggyozo szamomra.
Inkabb a black akkor mar szerintem.
500Gb-os wd black egyik szeriaja 150MB/s transfer ratet iger, a redek 110-120, green meg lassabb...
Most testingbe vettunk par hasznalt 73GB-os sas-t, ezek raid6-ban (hp p400 kártya), 185MB/s-t hoznak random write-ban, ami nem rossz szerintem.
---------------------------------------------------
Hell is empty and all the devils are here.
-- Wm. Shakespeare, "The Tempest"
- A hozzászóláshoz be kell jelentkezni
atirtam toshibara a diszkeket.
- A hozzászóláshoz be kell jelentkezni
Sub
- A hozzászóláshoz be kell jelentkezni
sub
- A hozzászóláshoz be kell jelentkezni
sub
- A hozzászóláshoz be kell jelentkezni
Várom a fejleményeket. :)
Szintén agyalok storage-ban de kicsit kisebb méretben.
- A hozzászóláshoz be kell jelentkezni
ECC?
A WD Reddel semmi gond nincs, ez is hullhat mint bármi más, de legalább 3 év a standard garancia. Nyilván, ha agyon akarod hajtani, kell a sebesség és van rá keret, akkor mást veszel. Ja, az 1TB korántsem a jelenlegi optimális árfekvés.
- A hozzászóláshoz be kell jelentkezni
nekem van az itthoni mediaserverembe 4 db wd red 3TB disk (raidz), egyenkent ezt tudjak:
[root@micromaster ~]# dd if=/dev/gpt/disk0 of=/dev/null bs=1M count=1000
1000+0 records in
1000+0 records out
1048576000 bytes transferred in 7.435749 secs (141018207 bytes/sec)
ez igy jol is nez ki, viszont overall performanceval nem vagyok elegedett. tehat pl. a lemeztomb egyik mappajabol a masikba masolas 30-40 MB/sec mindossze, illetve ha tobb kis dolog van, pl. 2-3 fullhd vagy bluray iso lejatszas (egyenkent olvasnak tobb MB/sec-kel), akkor mar nagyon belassul az egesz, s ez nem jelentos terheles.
itthonra jo, egyeb felhasznalasra nem javaslom.
aztan az sw raid eseteben gondolom zfs -re gondolsz :) , szvsz a desktop board i5-tel nem lesz jo ennyi lemezhez, tul keves lesz. ahogy a 8G RAM-ot is jocskan feljebb tolnam, nem olyan draga a memoria.
vagy veszel bele valami pciex8-as sata/sas "buta" vezerlot is, ami a lemezeket kiszolgalja, akkor a desktop board akar jo is lehet, viszont a fene tudja, hogy egy i5-os proci mennyire viszi el ennyi lemeznek az IO-jat. ki kene probalni, hogy mennyire reszponziv a rendszer. az utobbi idoben nekem a desktop cuccokkal mindig szivasom volt, viszont rendes entry-level (tehat viszonylag olcso) serve stuffokkal, xeon procikkal, hozzajuk valo alaplapokkal sokkal jobban megvoltam/vagyok. szeptikus vagyok a desktop board+i5 komboval kapcsolatban, plane 12+ lemez eseteben.
hwraid eseteben: azon a velemenyen vagyok, hogy ha van zfs-re lehetoseg, akkor inkabb az, mint hw raid, minden egyed esetben hw raid. LSI es adaptec kartyakkal volt dolgom, igaz csak SAS-sal, nem tudom, azok a SATA lemezeket mennyire kezelik. 3ware volt meg regen "meno"
- A hozzászóláshoz be kell jelentkezni
A kedvemért nyomnál egy
iozone -b results.xls -r 4m -s 4g -t 6 -i 0 -i 1 -i 2
kiváncsiságból?
Köszi
itt a raid6 =
[root@xxx ~]# dd if=/mnt/test0 of=/dev/null bs=1M count=1000
1000+0 beolvasott rekord
1000+0 kiĂrt rekord
1048576000 bĂĄjt (1,0 GB) mĂĄsolva, 2,84659 mp, 368 MB/mp
---------------------------------------------------
Hell is empty and all the devils are here.
-- Wm. Shakespeare, "The Tempest"
- A hozzászóláshoz be kell jelentkezni
microserver szinten?
raidz, tehat tekinthetjuk raid5 -nek:
[root@micromaster ~]# dd if=/data/temp/t.img of=/dev/null bs=1M
3963+0 records in
3963+0 records out
4155506688 bytes transferred in 14.299998 secs (290594913 bytes/sec)
iozone-t elinditottam egy screen-ben, majd reggel megnezem az eredmenyet, ha el nem felejtem.
viszont kozben a zpool iostat 1 ezt mutatja, hat nem lesz tul jo eredmeny, azt boritekolom...
[root@micromaster ~]# zpool iostat 1
capacity operations bandwidth
pool alloc free read write read write
---------- ----- ----- ----- ----- ----- -----
storage 4.72T 6.15T 97 46 11.2M 1.67M
storage 4.72T 6.15T 0 550 0 2.17M
storage 4.72T 6.15T 0 616 0 2.43M
storage 4.72T 6.15T 0 550 0 2.17M
storage 4.72T 6.15T 0 275 0 1.08M
storage 4.72T 6.15T 0 963 0 3.79M
storage 4.72T 6.15T 0 543 0 2.14M
storage 4.72T 6.15T 0 76 0 305K
storage 4.72T 6.15T 0 880 0 3.46M
storage 4.72T 6.15T 0 811 3.16K 3.20M
storage 4.72T 6.15T 1 832 37.5K 3.96M
storage 4.72T 6.15T 0 248 1.53K 1002K
storage 4.72T 6.15T 1 1.10K 4.37K 5.02M
storage 4.72T 6.15T 0 560 2.46K 2.20M
storage 4.72T 6.15T 0 39 0 167K
storage 4.72T 6.15T 0 1003 0 3.94M
storage 4.72T 6.15T 0 224 0 903K
storage 4.72T 6.15T 0 726 0 3.28M
storage 4.72T 6.15T 0 1.15K 0 4.62M
nalad milyen rendszer, milyen gep, milyen lemez?
UPDATE: ezt az iozone-t kilottem, mert anyira megfogja a gepet, hogy hasznalhatatlan, nem tudok elinditani egy filmet rola, mert be van allva.
ssh-n is alig birtam bejelentkezni, 1 billentyulenyomast 10 sec alatt echo -z vissza.
load:
[root@micromaster ~]# uptime
12:44AM up 4 days, 10:54, 3 users, load averages: 17.70, 14.30, 8.91
microservert tobbet nem.
- A hozzászóláshoz be kell jelentkezni
Ez egy játszós vas, Q8300 proci, 16g ram, sima asus alaplap, p400 512MB raid kártya, 6db használt 15k rpm 73GB sas diszk.
Rendes Centos 6.3 kernellel, tuned enterprise-storage opcióval ennyit tud:
"Throughput report Y-axis is type of test X-axis is number of processes"
"Record size = 4096 Kbytes "
"Output is in Kbytes/sec"
" Initial write " 275353.76
" Rewrite " 291034.00
" Read " 252083.12
" Re-read " 250815.98
" Random read " 299946.39
" Random write " 277412.34,
3.8.2-1.el6xen.x86_64 Xen kernellel, 1GB system rammal a random write lemegy 185MB/s-re.
Tudtommal a zfs-t echte a vasból csinálja a microserver, azért fogja meg ennyire, én ezért sem annyira csípem, jobban megbízok egy külön kártyában...
---------------------------------------------------
Hell is empty and all the devils are here.
-- Wm. Shakespeare, "The Tempest"
- A hozzászóláshoz be kell jelentkezni
de most ezt a gépet minek hasonlítottuk a microserverhez?
"Tudtommal a zfs-t echte a vasból csinálja a microserver, azért fogja meg ennyire, én ezért sem annyira csípem, jobban megbízok egy külön kártyában..."
hát hogy lehet még a zfs-t csinálni? csinálnál a vezérlőn egy RAID-et, s azon egy sima zfs pool-t? akkor kb. a zfs értelmének a 70%-át veszíted el...
van egy valamivel combosabb storage bent az irodában, xeon pricval, LSI vezérlővel, 4db 15krpm 3,5" SAS lemezzel, 16GB RAM-mal, zfs raidz-vel az ír 550Mb/sec-kel, olvas 480MB/sec-kel, a párhuzamos IO műveletek meg se kottyannak neki szinte, azt kéne hosonlítani.
itt írtam róla, most nem áll módomban leteszteni iozone-val, mert már élesben van a gép, s van egy plusz layer ami jelentősen belassítja az I/O-t, s kikapcsolni nem tudom/akarom.
http://hup.hu//node/120200
- A hozzászóláshoz be kell jelentkezni
Engem a wd red érdekelt igazándiból, zfs és egyéb huncutságokhoz volt már szerencsém, de a microserver miatt nem viszonyítási alap így sajnos, először szó se volt róla... :|
Pl én pont ezért nem tennék microserverbe zfs-t, mert kivégzi :)
---------------------------------------------------
Hell is empty and all the devils are here.
-- Wm. Shakespeare, "The Tempest"
- A hozzászóláshoz be kell jelentkezni
én meg adatot csak zfs-en vagyok hajlando tarolni :)
mondjuk arra amire kell, jo, tehat hogy egyszerre 3-4-5 -en nezunk rola filmet, de altalaban nem szokott tobb lenni az 1-2 konkurens filmnezes, azt kiszoglalja.
akkor vagyok gondba, ha rendezgetni kell rajta a mappakat, s egyikbola masikba kell masolni, na akor nagyon idegesito, hogy tetu lassu.
meg barmi port-ot feltenni ra idegolo, anyira lassan fordul rajta minden, mint 10+ eve valami pentium-os masinan.
jo, lehet ez tulzas, de iszonyat kenyelmetlen,h ogy pl. egy portinstall mc a fuggosegeivel kb. 1 ora, mire lefordul...
egy normalis gepen ez nem tobb par percnel.
- A hozzászóláshoz be kell jelentkezni
Akkor miert bsd-zel rajta? Vagy legalabbis miert forditod a portot?
t
- A hozzászóláshoz be kell jelentkezni
hat mert zfs kell nekem, es solarishoz nem nagyon ertek, vlamint nem tudom, hogy mennyire futna a microserveren, illetve kellenek olyan programok, amik solarisra nem erhetoek el, mint pl. plex server, logitech media server (squeezebox), stb.stb. linuxon nem akarok zfsezni. igy marad a freebsd.
amugy miert ne forditanam a portot? mire gondolsz?
- A hozzászóláshoz be kell jelentkezni
Miert nem akarsz linux-ozni?
Opcio ezen kivul meg a Debian kfreebsd.
Pinara gondolok, de amikor kerdeztem, akkor meg erre: http://www.freebsd.org/doc/handbook/packages-using.html
:)
tompos
- A hozzászóláshoz be kell jelentkezni
linuxozni nem akarok, pont.
ne offoljunk itt evvel.
debian kfreebsd eleg oszvernek tunik, kiserletezni nem akarok, a freebsd-t sok sok eve hasznalom, bevalt, bizok benne, zfs-ben bizok.
ha nem lenne tetu lassu a microserver, szavam nem lenne.
freebsd packages:
elofordul, hogy nincs package...
a pina az jo gondolat! :)
- A hozzászóláshoz be kell jelentkezni
off:Hogy van neked plex server freebsdn?:)
(Írtam pm-et)
- A hozzászóláshoz be kell jelentkezni
nem kaptam pm-et.
jogos a plex server felvetes, mentesegemre legyen mondva, hogy felheggesztettem de nem hasznaltam, es mostmar beugrott, hogy a pley-szel szopoda volt ezert mediatombot raktam, de 1-2 napig probalgattam csak.
- A hozzászóláshoz be kell jelentkezni
Solaris megy rajta remekül, és a LMS is rajta :) (Mediatomb is.)
/etc/lib/lu/plugins/lupi_bebasic
- A hozzászóláshoz be kell jelentkezni
min megy a solaris remekul?
- A hozzászóláshoz be kell jelentkezni
"es solarishoz nem nagyon ertek, vlamint nem tudom, hogy mennyire futna a microserveren" <-- azon
/etc/lib/lu/plugins/lupi_bebasic
- A hozzászóláshoz be kell jelentkezni
Így mar értem. :)
- A hozzászóláshoz be kell jelentkezni
[off?](Személy szerint nem utazom e-penisben, tehát nekem elég, ha annyit tud, amennyit kihasználok - és) teljes megelégedéssel használok egy első generációs N36L-ben ZFS-t WD Red lemezeken _otthon_. Nem tudom, mit lehetne kitaposni belőle, mert nem taposom; cserébe halk, hűvös és nem eszi meg a kenyeremre valót...[on?]
/etc/lib/lu/plugins/lupi_bebasic
- A hozzászóláshoz be kell jelentkezni
Elarulod hogy milyen oprendszert hasznalsz a microserveren? En most vettem egy N40L -t es eppen azon toprengek mit is tegyek ra....
- A hozzászóláshoz be kell jelentkezni
Persze. Solaris 11-et. (...mondjuk ez most van változóban, de kizárólag jogi okokból. Boldog lennék vele.)
/etc/lib/lu/plugins/lupi_bebasic
- A hozzászóláshoz be kell jelentkezni
Matyó mintás terítőt, az olyan szépen mutat :-D
- A hozzászóláshoz be kell jelentkezni
:D Chipke...
/etc/lib/lu/plugins/lupi_bebasic
- A hozzászóláshoz be kell jelentkezni
Amennyiben a Solaris 11 -re nem szanok ra annyit hogy megvegyem akkor te helyette mit ajanlanal? A zfs nagyon jonak tunik, mostanaban olvasgattam rola, ramot veszek a microszerverbe meg ugyhogy az nem lenne gond.
- A hozzászóláshoz be kell jelentkezni
Én sem vettem meg; amíg az OTN-t nem sérted és nem bánod, ha release-enként egyben (vagy nem) frissítesz, nem is kell megvedd. Támogatást persze ne remélj hivatalosan. Egyébként akkor valamelyik illumos-disztribúció irányába mennék, ahogy magam is teszem. (Sérteni tervezem az OTN-t :))
/etc/lib/lu/plugins/lupi_bebasic
- A hozzászóláshoz be kell jelentkezni
ilyen okok miatt használok OpenIndiana-t 3 db mentőszerveren.
Túl sok bajom nincs vele.
- A hozzászóláshoz be kell jelentkezni
Jó tudni, kösz'. Én SmartOS-szel nyomulok, egyelőre elégedetten, bár kicsit úgy érzem magam, mint Alice Csodaországban eleinte... Remélem, "szívjál meg" feliratú ojjektumba nem botlok :D
/etc/lib/lu/plugins/lupi_bebasic
- A hozzászóláshoz be kell jelentkezni
SmartOS-t is nézegettem, de nagyon egyedinek tűnt az egész, és az kicsit elriasztott.
Az OpenIndiana eléggé hasonlít az régi OpenSolaris disztribúcióra.
Használod benne a kvm virtualizációt?
- A hozzászóláshoz be kell jelentkezni
Most kivancsiva tettel: hogy lehet OTN-t serteni? Nem rakhatsz ra kulso appot?
--
Ki oda vagyik, hol szall a galamb, elszalasztja a kincset itt alant. | Gentoo Portal
- A hozzászóláshoz be kell jelentkezni
nem használhatod üzleti célra. ("Production use of Oracle Solaris requires a support contract.")
Üzleti célra a Solaris 11 processzoronként licenszelendő kb 200kHUF +áfa/socket áron.
- A hozzászóláshoz be kell jelentkezni
Pontosan, ahogy zwei mondja.
@zwei: Használom, igen.
/etc/lib/lu/plugins/lupi_bebasic
- A hozzászóláshoz be kell jelentkezni
Koszi.
Es a Nyitott Indiana az 1:1 replacement? Legalabbis, az ilyen parancssori cuccokat tekintve? Tehat, ha elkezdek ismerkedni vele, akkor lesz nemi fogalmam a Solarisrol is?
--
Ki oda vagyik, hol szall a galamb, elszalasztja a kincset itt alant. | Gentoo Portal
- A hozzászóláshoz be kell jelentkezni
Az OpenSolaris-t ugye amikor az Oracle jegelte végül, létrejött egy fork illumos néven, ami igazából "csak" az OS lelke - az OI ennek egy disztribúciójaként az OSOL örököse, ha úgy tetszik. Vannak más disztribúciók is, lásd Nexenta, SmartOS, OmniOS. Mind-mind specifikus célokkal. A kódbázis immáron - amennyire én tudom - független az Oracle-vonaltól; a többiek összedolgoznak. Attól függ, mit tekintesz Solarisnak :) Fogalmad okvetlen lesz sok dologról, ami több efféle rendszeren is előfordul.
/etc/lib/lu/plugins/lupi_bebasic
- A hozzászóláshoz be kell jelentkezni
"Az OpenSolaris-t ugye amikor az Oracle jegelte végül, létrejött egy fork illumos néven, ami igazából "csak" az OS lelke"
Pontosan. A kernelt és közvetlen környezetét elvileg közösen fejlesztik.
Kicsit hasonlít a dolog a Linux kernel és a Linux disztribuciók viszonyához.
- A hozzászóláshoz be kell jelentkezni
"Es a Nyitott Indiana az 1:1 replacement? Legalabbis, az ilyen parancssori cuccokat tekintve?"
Az OpenIndiana még eléggé hasonlít a Solarisra, de egyre inkább eltér a kettő.
SMF, dtrace, ZFS, SVM még ugyanaz, az ezer éves cli eszközök még ugyanaz.
Fokozatosan távolodik a Solaris és az Open vonal.
- A hozzászóláshoz be kell jelentkezni
Es mi az, amit erdemes ilyen szempontbol kovetni?
--
Ki oda vagyik, hol szall a galamb, elszalasztja a kincset itt alant. | Gentoo Portal
- A hozzászóláshoz be kell jelentkezni
Azt ami érdekli az embert, vagy szüksége van rá. :)
Ha esélyes, hogy Sparc rendszerekkel kell dolgozni, akkor Solaris. Ingyen letölthető, és teljes értékű, tanulásra kiválóan használható, a dokumentáltsága kimondottan jó.
Én azért választottam az OpenIndiana-t, mert az ami a meglévő Solaris tudásomhoz leginkább "kézre állt".
Álltalános célú szervernek teljesen ok, ez a disztro áll legközelebb a Solarishoz.
A SmartOS, és OmniOS ami állítólag még jó. Mindkettőt egy-egy cég fejleszti, és saját cloud infrastruktúráját építi belőle. Ezek már inkább arra vannak kihegyezve, hogy cloud építőelemei legyenek. Ennek megfelelően ezek a Solarisra egyre kevésbé emlékeztetnek.
Dokumentáltságban szerintem elég problémás az utóbbi kettő, tanulásra semmiképpen. Az OpenIndiana még csak-csak, de az sincs sehol a Solaris dokumentáltságához képest.
- A hozzászóláshoz be kell jelentkezni
Teljes mértékig egyetértek zwei kollégával. Még annyit tennék hozzá, hogy Solaris-ból is a 10-es utolsó update-jét venném elő. Ha azt kiismerted, jöhet a 11.1, és utána bátran válthatsz bármelyik utódra.
(Olyannyira virtualizálható a 10-es, hogy van hozzá unofficial virtio_blk driver portolva. Találsz a vendor oldalán ovf-et is akár, nyilván enélkül, de belereszelhető hamar abba is.)
/etc/lib/lu/plugins/lupi_bebasic
- A hozzászóláshoz be kell jelentkezni
Ha en virtualizalok, plane ilyesmit, azt VMware alatt teszem. Ott meg a Solaris full funkcionalitasu supportot elvez.
--
Ki oda vagyik, hol szall a galamb, elszalasztja a kincset itt alant. | Gentoo Portal
- A hozzászóláshoz be kell jelentkezni
Nagyon tetszik és érdekel ez a téma, köszönöm a topicnyitónak.
Milyen alternatívák vannak még ilyen sok disket befogadó házakra, gyárt más gyártó is ilyet?
Innét esetleg lehet még ihletet venni:
http://blog.backblaze.com/2011/07/20/petabytes-on-a-budget-v2-0revealin…
(illetve van már 3.0-ás is http://blog.backblaze.com/2013/02/20/180tb-of-good-vibrations-storage-p…)
Itt pl. ezeket a Hitachi Deskstar 5K3000 HDS5C3030ALA630 vinyókat dicsérik (ki tudja gyártják-e még).
Illetve azt állítják, hogy software RAID 6-ot használnak (Debian-al).
Van valakinek fogalma arról, hogy egy ilyen software RAID 6 mennyire megbízható, stabil, illetve erőforrásigényes egy ilyen vagy hasonló kiépítésben (12x3TB vagy 24x3TB)?
Amennyiben megbízható egyébként én a software RAID irányába mennék el így első körben.
♲♻♲
- A hozzászóláshoz be kell jelentkezni
Álltalános tapasztalat, hogy RAID6-ba max 6-8 diszket érdemes tenni. E fölött nagyon romlik az IO teljesítmény skálázódása.
24 diszknyi kapacitást már valami raid50 raid60 jellegű tömbökből érdemes összerakni, vagyis 3-4 db raid6 tömb stripe-olásával.
- A hozzászóláshoz be kell jelentkezni
Igen valsz LVM-el jól össze lehetne stripeolni a kisebb RAID6-os tömböket, mármint nem stripe ra gondolok, hanem simán egy VG-be őket.
Mondjuk a legjobb ha az alkalmazás kezeli a több kisebb területet és akkor minden egyes kisebb RAID6 tömbre mehet külön fájlrendszer, ami némileg csökkenti a teljes adatvesztés kockázatát is abban az esetben, ha valamelyik RAID6 tömb mégis megadja magát...
♲♻♲
- A hozzászóláshoz be kell jelentkezni
RAID10-ben gondolkozom.
- A hozzászóláshoz be kell jelentkezni
Nem is neked válaszoltam. :)
Egyel feljebb raid 6 volt a kérdés... és kb. még ontopic is.
- A hozzászóláshoz be kell jelentkezni
Ez jóóó!
Ahhoz, képest, hogy mi 500 GB-os EVA Storage bővítésért ugyanennyit fizettünk... :)
Nem baj, van mivel b@sztatni a főnökömet!
"Értem én, hogy villanyos autó, de mi hajtja?"
- A hozzászóláshoz be kell jelentkezni
mennyi az az annyi? $56,696? Azért a a 10+ milla k.sok 500GB-ért, még egy EVA-ba is... :)
Egyébként 10K USD alatt elég szép konfigokat össze lehet építeni, de olyan huncutságokat azért ne várjon az ember ennyi pénzért, mint pl. redundáns controller, vagy aktív-aktív FC multipath, meg még egy pár apróság ami egy enterspájz storage-ban nagyjából 15 éve alap.
- A hozzászóláshoz be kell jelentkezni
Onnan indul, hogy egy diszk - nem diszk. Ha diszkpolc is kell, meg a tartalék gépteremben is ki kell alakítani ugyanazt a konfigurációt, akkor azért el tudnak szaladni a költségek - mondjuk ennyire talán nem...
- A hozzászóláshoz be kell jelentkezni
Az Intelnek is van ilyen barebone szervere:
http://www.szerver.hu/intel-szerver/intel-e5-2600-2u-rack-szerver-sandy…
Akár 12 db. 3.5"-os diszk, plusz 2 db. SSD az op.rendszernek, vagy
akár 24 db. 2.5"-os diszk, plusz 2 db. SSD az op.rendszernek
természetesen kapható hozzá 6Gb/s-os Intel HW RAID vezérlő modul 1GB cache-sel
- A hozzászóláshoz be kell jelentkezni
az az 1G caches raid vezerlo biztos sokat fog erni 10/20T -nel :))
- A hozzászóláshoz be kell jelentkezni
Köszi, pont ilyesmikre gondoltam.
Itt ha kiválasztom azt a modellt, ami 24 disket fogad akkor van ott ötféle RAID vezérlő a listában.
Ezek közül rá tudok valamelyikre dugni 24 lemezt (ha igen, akkor hogy, a legnagyobb SAS port szám, amit látok az a 8)?
Ha software RAID-et akarok és nem kell RAID vezérlő, akkor hogyan tudom rádugni a 24 lemezt?
(Feltételezem, hogy nincs 24 SATA port az alaplapon.)
Szerk.:
Illetve úgy látom, hogy ez nem is SATA, hanem SAS.
♲♻♲
- A hozzászóláshoz be kell jelentkezni
ugy, mint a supermicronal: 2/4 diszk latszik egy porton (es igy osztjak a sebesseget, de a 6gbps siman eleg a porgo rozsdanak)
- A hozzászóláshoz be kell jelentkezni
Gondolom, akkor itt valami ilyesmiről szól a történet: http://discountechnology.com/Internal-SAS-Cable-for-4-devices-8087-SATA1
♲♻♲
- A hozzászóláshoz be kell jelentkezni
Expandernek hívják azt az eszközt, amely továbbosztja a 8 SAS/SATA fizikai portot 24 eszköz felé:
Intel RES2SV240 24 portos 6Gb/s SAS/SATA expander kártya:
http://www.intel.com/support/motherboards/server/sb/CS-031813.htm
Ez természetesen kompatibilis az alaplaphoz csatlakoztatott HW RAID vezérlővel. A szerverhez pedig jár a 6 db. SFF8087 to SFF8087 kábel az expander és a Hot-Swap backplane-ek (3 db. 8-as) összekötéséhez.
- A hozzászóláshoz be kell jelentkezni
Kezd letisztulni, köszönöm.
♲♻♲
- A hozzászóláshoz be kell jelentkezni
De létezik olyan model is, amely előre beépítve tartalmazza a HW RAID vezérlőt és az expandert:
Intel Server System R2224GZ4GCSAS (24db. 2.5"-os diszk)
Ebben gyárilag installált és kábelezett az Intel RMS25CB080 8-port HW RAID SAS modul és az Intel RES2CV360 Integrated 36 port expander - így mind a 24 diszk a HW RAID vezérlőre van kötve.
- A hozzászóláshoz be kell jelentkezni
Látom, hogy otthon vagy a témában, ezért kérdeznék még egyet, előre is köszönöm a választ.
Ha egy adott konfigurációnál a hardware RAID mellett döntök, akkor milyen esélyem van arra, hogy ugyanezeket a diskeket pl. 3 év múlva át tudom tenni egy másik szerverbe és az abba beleépített "új" vezérlő is kezelni fogja a diskeket.
Ugye a software RAID-ben egy nagyon vonzó dolog az, hogy kiveszem az egyik gépből, összekeverem őket és egy másik gépbe átrakva teljesen más sorrendben, ugyanúgy össze tudom állítani a tömböt.
Ez ugye nem tesz függővé egy adott modelltől vagy akár egy adott gyártótól, ha x év múlva más gyártó jobb vagy olcsóbb lesz akkor könnyű az átállás.
Nyilván azzal tisztában vagyok, hogy két teljesen különböző gyártó termékei nem lesznek kompatibilisek egymással.
Viszont ha most összeállítok egy ilyen szervert és 3 év múlva beszerzésre kerül egy új hardware (ugyanúgy Intel, egy akkor aktuális modell)
és a diskeket nem akarom cserélni, vagy nem rögtön akarom cserélni (bármilyen okból is, ne menjünk bele, hogy 3 év után azt is érdemes lenne cserélni, stb.),
akkor tudok-e majd olyan (akkor újan kapható) vezérlőt venni, ami kezeli a már létező diskeket, jobb esetben úgy, hogy bármilyen sorrendbe is teszem be őket.
Mennyire figyelnek oda erre a gyártók, vagy kimondottan az Intel, aki szintén valamelyik másik gyártó chipjeit használja a RAID vezérlőin, asszem.
♲♻♲
- A hozzászóláshoz be kell jelentkezni
Meggyőződésem szerint 3 év múlva az aktuális legújabb Intel HW RAID (mondjuk 12Gb/s SAS/SATA-4) vezérlő fel fogja ismerni a RAID kötegeket a diszkeken és berendezi őket. Én mondjuk azért nem kevergetném össze őket, figyelnék a diszk sorrendre.
A mostani Intel RAID vezérlők biztosan felismerik az előző generációs Intel vezérlők által kezelt kötegeket.
Ez persze egy akadémikus vita lehetne, melyik fogja tovább bírni, a hardver, vagy a diszkek... Szerintem kb. 5 évre érdemes tervezni, addig bírni fogja minkettő - feltéve, hogy valódi szerver (nem desktop) diszkeket szerelsz a szerverbe.
- A hozzászóláshoz be kell jelentkezni
Az Intel vezérlők gyakran átbrandelt LSI vezérlők.
Ahogyan egyes IBM vezérlők is -- az IBM általában a legolcsóbb, míg az LSI a legdrágább (bár elég nagy barom az, aki listaárat fizet, tehát YMMV). Sokan ezért kihagyják a marketingesek adóját és IBM-ként veszik meg és átflashelik sima IT HBA-ra, és zfs-t futtatnak rajta.
Bónusz lenne a VT-d, ami a vezérlőt szépen összepasszírozza a virtualizációval. Nem értem miért, a kis Intel Xeon-os microserver mintha direkt tiltaná le a VT-d. Kár érte.
- A hozzászóláshoz be kell jelentkezni
a VT-d arra jo, hogy (ebben az esetben) a vezerlot (amugy tetszoleges IO eszkozt) kozvetlen oda tudd adni egy VMnek - ezzel mit is nyernel?
- A hozzászóláshoz be kell jelentkezni
Gondolom ennek is kattintgatós BIOS-a van. Nagyot lehet vele szenvedni ip-konzolon. Ja, és ha netán ssd-t tervez valaki, akkor jó, ha Intelt rak rá...
- A hozzászóláshoz be kell jelentkezni
Van cli, az sem valami kényelmes de jobb mint az egerészés.
- A hozzászóláshoz be kell jelentkezni
A zfs mellett itt álltalános okosságok (szempontok amiket érdemes figyelembe venni) is vannak.
Az egyik fő konklúziója pl.: rakj bele sok-sok-sok memóriát. A working set méretétől függően akár kegyetlen sokat is tud dobni a random-read teljesítményen a nagy read cache.
A fenti cuccba pl. min 64GB-t raknék, de a kétszerese sem ördögtől való. :)
Desktop boardok, és gagyi cpu-k nem javasoltak, ha több klienst is rá akarsz lógatni, és fontos az IO teljesítmény.
Ha zfs-t használsz, akkor pl. egy nem túl aggresszív tömörítés is jelentős IO teljesítmény növelő lehet, de ahhoz is CPU kell.
A hot-spare diszkről se feledkezz meg.
- A hozzászóláshoz be kell jelentkezni
Van olyan alaplap, amibe bele is lehet rakni a 2x64 Gb RAM-ot?
- A hozzászóláshoz be kell jelentkezni
Ne viccelj már, hogyne lenne.
Supermicro X9DAX-7TF: Up to 512GB DDR3 1600MHz ECC Registered DIMM; 16x DIMM sockets
De szinte bármelyik közép kategóriás brand szerverbe bele lehet rakni már 128GB memóriát.
- A hozzászóláshoz be kell jelentkezni
Jogos, közben rákerestem. Ebbe is bele lehet pakolni a 128 Gb RAM-ot: X79A-GD45 (8D)
Egyszerűen nem éreztem hogy olyan régen lett volna hogy Commodore 64-eztem. Abban a 64 Kb RAM jónak számított. Most meg a 2048*1024-szorosáról beszélünk.
- A hozzászóláshoz be kell jelentkezni
Hát, ha az ember nem figyel oda akár csak pár hónapig, szédületes, hogy mennyit változik a hardware kínálat.
Pár éve még szekrény méretű vasakban volt 128GB-nél több.
Most nem egy olyan 4 unitos van a kezem alatt, amiben 512GB memória van. Talán emiatt már egy ideje már nem is nagyon hoz lázba, ha egy kicsit durvább vassal van dolgom. (Pedig én is C64-en kezdtem)
Régen Kb-ban mértük a memóriát, aztán egy ideig Mb-ban, majd Gb-ban, lassan kezd eljönni a Tb-ok ideje. (Gramar nazik: please most hagyjuk a Gb, GB, GiB, stb. féle vergődést.)
- A hozzászóláshoz be kell jelentkezni
Azért ilyenkor jogosan van az az érzésem, közeleg a SkyNet.
- A hozzászóláshoz be kell jelentkezni
már régen itt van közöttünk, csak nem köszönt, tanulva Adm. Poindexter hibájából (egy sima tavalyi okostelefon veri a Cray2-t). Egyéb propaganda.
- A hozzászóláshoz be kell jelentkezni
ne offoljuk szet a topicot, koszi
- A hozzászóláshoz be kell jelentkezni
Előttem lévő vasban van 8 db xenon e5-2620 as cpu 512G ram.
Telefonomban 1G ram, de már vannak 2G rammal rendelkező telefonok.
Rohan az idő.
Viszont ez nem a magyar átlag, múltkor volt szerencsém egy családnak a gépét csinálni, amivel netezni akartak. Celeron 1300Mhz 256M ram. Mondtam nekik, ha van pár ezer ft-juk akkor legalább egy 512M-1G ramos gépbe fektessenek, be ezzel sokat nem fognak netezni.
Fedora 17, Thinkpad x61s
- A hozzászóláshoz be kell jelentkezni
:) Bőven. Van olyan Intel-alapú kiszolgáló, amiben 64 memóriafoglalat virít... :-)
- A hozzászóláshoz be kell jelentkezni
Van amiben 128 is, mindezt 5 RU-ban...;)
- A hozzászóláshoz be kell jelentkezni
Elnezest, hogy ezen a szalon kicsit off leszek, de elojott a ZFS, es eszembe jutott, hogy milyen jo kis cross-platform FS.
Az lenne a kerdesem, hogy egy sima atlag desktop felhasznalasra, illetve annal picit tobbre alkalmas-e?
Konkretan VirtualBox gepeket szeretnek futtatni, es nagyon fontos lenne, hogy ezek a gepek mind Linux mind OS X alol elerhetoek legyenek. Dedup, tomorites nem kell, csak a pure FS funkcionalitas.
Ezen felul van egy csomo apro pici fajl (forrasfajlok), amiket el szeretnek erni, de itt nem fontos a teljesitmeny, mert nem forditok forrasbol nagyon semmit, ket iras kozott meg eltelik par perc/ora szoval irrelevans.
Jelenleg HFS-re formazott journal nelkuli particioval szivok mint kozos storage, de a Linuxnak iszonyatosan tre a HFS tamogatasa, es ez csak reszben szarmazik abbol, hogy maga az FS zart: egyszeruen intenzivebb hasznalat mellett naponta, ha nem futtatok VirtualBoxot, akkor 3-4 naponta osszehanyja magat a gep (=elpanikol).
Elorebocsatom: csak a fenti kerdesem van, a problemat nem akarom maskeppen megoldani, sem kulso storage-zsel, sem mashogy.
--
Ki oda vagyik, hol szall a galamb, elszalasztja a kincset itt alant. | Gentoo Portal
- A hozzászóláshoz be kell jelentkezni
Pont annyira alkalmas desktop-ra, mint serverre. Ha nem hasznalsz semmi speckot, akkor stabilnak tekintheto.
A specko nem tomoritest es dedupot jelent.
tompos
- A hozzászóláshoz be kell jelentkezni
A kerdes inkabb a teljesitmeny vonatkozasaban erdekel elsosorban, vagyis hogy kell-e magas iowaittol tartanom egy sima konzumer laptop es winyo vonatkozasaban?
--
zsebHUP-ot használok!
- A hozzászóláshoz be kell jelentkezni
Nem, miert kellene, plane ha nem igazan hasznalod tehelosen?
Ugyanolyanra kell szamitanod lenyegeben, mint a tobbi fs-nel.
tompos
- A hozzászóláshoz be kell jelentkezni
Koszi. Nem tudtam, hogy a VirtualBox az "terhelosnek" szamit-e, ezert kerdeztem.
--
Ki oda vagyik, hol szall a galamb, elszalasztja a kincset itt alant. | Gentoo Portal
- A hozzászóláshoz be kell jelentkezni
Az leginkább attól függ, hogy milyen terhelést okoznak a virtualboxban futó VM-ek.
- A hozzászóláshoz be kell jelentkezni
Nem sokat, fejleszteshez hasznalt webappokrol van szo elsodlegesen. Esetleg 1-1 komolyabb tesztrendszert epitek (2-3 gep, peldaul Linux HA vagy mysql replikacio kiprobalasahoz), de szamottevo terhelest sosem rakok ra, mert a winyo sem birna (egy 7200-as samsung van benne, ami nem rossz, de egy komplett szerver terheleset nem birna el), de nincs is ra igenyem. Inkabb foleg fejleszteshez, bizonyos dolgok kiprobalasahoz hasznalom.
--
Ki oda vagyik, hol szall a galamb, elszalasztja a kincset itt alant. | Gentoo Portal
- A hozzászóláshoz be kell jelentkezni
Nincs okom vedeni a topic-ot, de a tisztesseg azt kivanja valoban, nyiss neki egy masikat.
tompos
- A hozzászóláshoz be kell jelentkezni
Oks, bar a valaszokat mar megkaptam, szoval a tobbi annyira nem fontos. Koszonom mindenesetre, ha van valami nyug, majd nyitok uj topicot.
--
Ki oda vagyik, hol szall a galamb, elszalasztja a kincset itt alant. | Gentoo Portal
- A hozzászóláshoz be kell jelentkezni
a kozos storage hogy van megoldva?
van egy geped, amin fut linux is meg osx is, es egy particion meg vannak a vm-ek?
- A hozzászóláshoz be kell jelentkezni
Igen, dual boot
--
zsebHUP-ot használok!
- A hozzászóláshoz be kell jelentkezni
csak tudnam, hogy ennek mi koze ahhoz, hogy epitsunk storaget...
- A hozzászóláshoz be kell jelentkezni
sub
- A hozzászóláshoz be kell jelentkezni
-
- A hozzászóláshoz be kell jelentkezni
Csak kéne az az ECC RAM, nem..?
- A hozzászóláshoz be kell jelentkezni
de. vajon E3 eleg lesz nekem ZFS-hez, vagy nyernek valamit az E5-el? ha bekapcsolom a dedupot meg a tomoritest, ki tudja a jelenlegi fbsd-s implementacio hasznalni a 8 magot?
- A hozzászóláshoz be kell jelentkezni
Nagy kapacitású storage-on ha nem backup célra használod a dedup nem mindig jó ötlet. Veszettül be tud lassulni egy idő után (zabálja a memóriát és a processzort) . A tömörítés a legtöbb esetben bőven elég.
- A hozzászóláshoz be kell jelentkezni
Az E3 nem csak 32G RAM-ot támogat meg 1 CPU-t? Tehát ha 64+ G RAM-ot szeretnél beletenni, akkor csak E5 marad.
- A hozzászóláshoz be kell jelentkezni
Szerintem most, hogy az E3-as Xeonok desktop árban vannak (Intel alaplap + processzor + ECC RAM-ról beszélek), nincs igazán értelme desktop alkatrészekkel szenvedni, főleg ott, ahol a költségek nagy részét úgyis a HDD-k és SSD-k, na meg a ház és a 10GE-s hálókártya fogják adni...
- A hozzászóláshoz be kell jelentkezni
azt neztem, hogy 10G helyett az Infiniband is megoldas lehet; amit zwei linkelt blogot fent, ott pl kihoztak, hogy olcsobb :-)
- A hozzászóláshoz be kell jelentkezni
infiniband @ home: http://davidhunt.ie/wp/?p=232
- A hozzászóláshoz be kell jelentkezni
megneztem memoriabol mi az, amihez a legkonnyebben hozza tudok jutni. a nyertes: Kingston ValueRAM ECC Registered, 1x 16GB, DDR3-1600, CL11 (KVR16R11D4/16)
ugy nezem, hogy siman tudnek ebbol venni akar 8at is a storageba, nem tul draga (142 CHF a kisker ara)
- A hozzászóláshoz be kell jelentkezni
+1
--
A legértékesebb idő a pillanat amelyben élsz.
http://phoenix-art.hanzo.hu/
https://sites.google.com/site/jupiter2005ster/
- A hozzászóláshoz be kell jelentkezni
Most megint leírom a jelenlegi kedvenc AMD Opteron konfigomat. :)
Alaplap: Supermicro H8SCM-F (http://www.supermicro.com/Aplus/motherboard/Opteron4000/SR56x0/H8SCM-F…), ha kevés a PCIe bővítőhely, akkor van remek 2 cpu-s verzió is a lapból (http://www.supermicro.com/Aplus/motherboard/Opteron4000/SR56x0/H8DCL-iF…).
CPU: Ízlés szerinti 4200 vagy 4300-as Opteron
Memória: Mivel a lap 128GB-ot, illetve normális áron 64GB-ot, támogat ezért remek ZFS alá is. Én 2x8GB-al indulnék (szigorúan Reg. ECC Kingston-éktól és DDR3-1600), amit ha kell 2x16GB-vel könnyen meg lehet toldani és máris 48GB-nél járunk erölködés nélkül.
Ha ZFS vagy softraid:
- Ízlés szerinti LSI SAS6G HBA (8-16 belső portig, maximum 3 db)
- Ízlés szerinti SAS (igen, akár nearline is) HDD-k, ha már SASolunk
- L2ARC-hoz Samsung 840 Pro SSD, ami az alaplapi SATA portra is köthető
- Ízlés szerint akár két (vagy három) valami egyszerűbb SATA diszkről, sőt pendrive-okról is lehet bootolni, szintén az alaplapi SATA vezérlőről vagy az alaplap belső USB csatijáról
A ZFS tudtommal jelenleg nem tud online capacity expansiont, szóval a későbbi diszk bővítést erősen ki kell találni.
Ha HW Raid:
- Ízlés szerinti RAID vezérlő, én mondjuk P420-as vagy P410-es (akár használtan is) SmartArray-ekben gondolkodnék, SAS expanderrel vagy több példányban.
Hálózat:
- Alapból 2x1Gbites intel vezérlő integrált, ha elég két LSI HBA vagy HW RAID vezérlő, akkor remekül elfér a fenti tge kártya.
Ha csak 1T-s diszkekben gondolkosz, akkor lehet jobban jársz a 2,5"-os NLSAS vonallal. Kisebb fogyasztás, kisebb házikó, kisebb hűtési igény. A 2,5"-os seagate átlagos igénye 6,35W, a 3,5"-osnál 8,93W, ami óránként olyan bő 60W megtakarítás csak a diszkek fogyasztásán és a tápot is kevésbé terheled.
- A hozzászóláshoz be kell jelentkezni
esetleg csinaltal konkret mereseket egy ilyennel?
- A hozzászóláshoz be kell jelentkezni
Sok diszkkel nem, de egy 4x500GB-os mérést tudok majd egy teszt példányon a helyi SATA vezérlővel a single cpu-s lappal. Használjuk a kétprocis lapot 4x73GB-nyi U320-as diszkkel (nem őrültünk meg, ilyen volt temérdek) Linuxos softraiddel és remekül szalad (SQL + webszerver), pedig ha 2 alá megy a load és 100Mbit alá a kimenő adat akkor az idle-nek számít. :)
Csak jóval kisebb gépekre volt eddig igény sajnos. A mérésnél nagyon fontos, hogy a hálózaton mit tud kitolni vagy fogadni a gép az adott protokollal. Mert sokszor láttam, hogy a helyben mért érték nem nagyon van köszönő viszonyban a hálózatossal.
- A hozzászóláshoz be kell jelentkezni
en vSphere-ek ala akarnam rakni (hogy blade, v nem blade, az meg kerdeses), direktbe kotve a chassis-val.
- A hozzászóláshoz be kell jelentkezni
Akkor az NFS lesz gondolom vagy esetleg iSCSI. Van már a Linux kernelben is fscache vagy mi és pont NFS alá elvileg. Nekem a ZFS NFS felől mért sebessége eléggé csapnivaló és sajnos ez valami "központi" bug FreeBSD-vel, mint kiderült. Igaz esetemben backup szerverről van szó, de ott sem árt, ha tempósan átjönnek a mentések. :)
- A hozzászóláshoz be kell jelentkezni
Én egy időben mentettem zfs-re hálózaton mindenféle módon, de ritka szar volt minden tekintetben, és elég sokszor széthullott (nexenta store volt), azóta hálég nincs közöm ilyesmikhez, szerinted milyen az ideális SW környezet?
---------------------------------------------------
Hell is empty and all the devils are here.
-- Wm. Shakespeare, "The Tempest"
- A hozzászóláshoz be kell jelentkezni
FreeBSD 8.3-al próbálkoztam, azaz most is az van, SSD-t kapott a ZIL, de L2ARC nem volt. FreeBSD-vel elég jól megy, deduplikál, tömörít stb. Egy ősi netburst-ös Xeonon és egy LSI 16 portos SAS HBA-val operálunk, de még csak 3x2TB raidz-nek, 2x64GB SSD került rá. Az aktuális problémám, hogy állítólag Sambával remek a ZFS sebesség, de cserébe nem tudom FreeBSD-n megoldani hogy az AD-ből menjen az authentikáció és ezzel se vagyok egyedül. :)
- A hozzászóláshoz be kell jelentkezni
Köszi.
A de-duplikáció ram-ban hogy néz ki? Régebben nagyon ram gyilkos volt...
---------------------------------------------------
Hell is empty and all the devils are here.
-- Wm. Shakespeare, "The Tempest"
- A hozzászóláshoz be kell jelentkezni
12G memória van a gépben és igazából sok nagyobb file van. Ezt találtam: http://hub.opensolaris.org/bin/view/Community+Group+zfs/dedup
- A hozzászóláshoz be kell jelentkezni
Ha csak backupra használod, annak az 1-2 db backup júzernek talán nem is kellene AD auth ?
--
#conf t
#int world
#no shut
- A hozzászóláshoz be kell jelentkezni
Ennél összetettebb a helyzet. Lenne élet AD nélkül is persze, de gondoltam az lenne a szép.
- A hozzászóláshoz be kell jelentkezni
iSCSI lesz, allitolag jobb mint az NFS a VMFS5 miatt.
- A hozzászóláshoz be kell jelentkezni
Az nfs akkor szopó, ha bedől az nfs storage, és ki akarod cserélni a vmware alatt...
Nem éppen kedves dolog :)
---------------------------------------------------
Hell is empty and all the devils are here.
-- Wm. Shakespeare, "The Tempest"
- A hozzászóláshoz be kell jelentkezni
de nem akarok nfst. irtam.
- A hozzászóláshoz be kell jelentkezni
+ tapasztalatnak szántam, hátha mások is esetleg olvassák, tengermély bocsánat érte
---------------------------------------------------
Hell is empty and all the devils are here.
-- Wm. Shakespeare, "The Tempest"
- A hozzászóláshoz be kell jelentkezni
Miert?
- A hozzászóláshoz be kell jelentkezni
Nekem előfordult, hogy volt egy storage, amin nfs-en volt kiadva az archive ds, ez menet közben gondolt egyet és game over, aztán valami elég mély kókányolással sikerült csak újra alávarázsolni, istenért se fogadta el...
Ez emlékeim szerint 4.1 verzió volt, remélhetőleg javították ezt azóta...
---------------------------------------------------
Hell is empty and all the devils are here.
-- Wm. Shakespeare, "The Tempest"
- A hozzászóláshoz be kell jelentkezni
A zpool add poolneve ujdis1 ujdisk2 ujdisk3 ujdisk4 -vel megoldható a létező pool méretének online növelése.
-
Debian Squeeze
- A hozzászóláshoz be kell jelentkezni
Azt tudom, de akkor pl. kvázi RAID5+0 -t hozunk létre raidz esetén, ha jól értettem a leírásokat. Szóval az új diszkek bekerülnek az adott raidz-be mondjuk vagy a pool alá egy második raidz kerül?
- A hozzászóláshoz be kell jelentkezni
A már létező raidz-be kerülnek a létező poolban.
-
Debian Squeeze
- A hozzászóláshoz be kell jelentkezni
ilyenkor csak a pool nő, vagy a zfs-eket is lehet növeszteni?
- A hozzászóláshoz be kell jelentkezni
--
A gyors gondolat többet ér, mint a gyors mozdulat.
- A hozzászóláshoz be kell jelentkezni
sub.
- A hozzászóláshoz be kell jelentkezni
a zfsbuildes hw elegge tetszik, szerintem majdnem ugyanilyet fogok epiteni.
- eleg az a 20G ZILre? ha jol olvastam, ez $RAM/2 altalaban, ok meg 64G ram melle raktak be a 20G-t.
- az E5-1660 kb 1100 CHF, az E3-1270v2 pedig csak 360; tudom, hogy ez csak 32G memoriat tud kezelni. eleg lenne ez?
- A hozzászóláshoz be kell jelentkezni
A ZFS alapértelmezetten 10 másodpercenként ír a lemezre, arra kell a ZIL, hogy a 10 másodperc alatt összejött adatmennyiséget tudd tárolni. 20GB ZIL esetén 2GB/sec-el bejövő adatmennyiség esetén fog megtelni a ZIL. Persze szívás van (gondolom), de ha max 500MB/sec-el jönnek az adatok, akkor nem fog megtelni, és ki fogja tudni írni, ha a mögöttes storage szekvenciálisan bírja.
Szerk: ja és alapból a RAM-ba esik be az adat. A ZIL arra kell, hogy ne a nagy válaszidejű HDD-re írja ki a RAM-ból, hanem a gyors SSD-re. A ZIL előnye abban van, hogy a szinkron requesteknél nem 8-10 ms lesz a válaszidő, hanem 1 ms, ugyanis szinkron kérésnél addig nem jelez vissza, hogy végzett az írással, amíg a RAM-ból ki nem lett írva valahova (SSD, vagy HDD). Ezért teljesít gyengén a ZFS ZIL nélkül írásban.
- A hozzászóláshoz be kell jelentkezni
Mennyi ideig bírja ezt egy SSD?
- A hozzászóláshoz be kell jelentkezni
Nemely SSD-r 6 ev garancia van, ha nem total hulye a gyarto akkor sokaig.
Erdemes megnezni milyen SSD -t vesz az ember, mert SSD es SSD kozott oriasi kulombsegek vannak.
Amit nem lehet megirni assemblyben, azt nem lehet megirni.
- A hozzászóláshoz be kell jelentkezni
+1, bár adatvesztés esetén nagyjából az új ssd ára a legkisebb probléma - kritikus esetben mindenképp hardveres raid tükröt tennék alá.
- A hozzászóláshoz be kell jelentkezni
"kritikus esetben mindenképp hardveres raid tükröt tennék alá"
teljesen jó a szoftveres raid is, a lényeg, hogy tükörben legyen.
Annélkül orosz rulett...
- A hozzászóláshoz be kell jelentkezni
Hozzáteszem, hogy ZIL esetén nem okoz adatvesztés az SSD hiba önmagában, mert a memóriában is megvan az adat.
- A hozzászóláshoz be kell jelentkezni
Ez valóban így van. Viszont kegyetlenül beleáll a földbe a teljesítmény, ha kiesik az SSD.
Illetve, ha egy esetleges áramkimaradás után az egy szem SSD úgy gondolja, hogy nem indul el, akkor bye-bye file rendszer.
- A hozzászóláshoz be kell jelentkezni
A full fs? Nemcsak a ki nem irt adatok?
10x
t
- A hozzászóláshoz be kell jelentkezni
Fene tudja.... láttam már zfs korrupciót amin csak a destroy/create segített.
- A hozzászóláshoz be kell jelentkezni
Volt olyan korábbi verziója a zfsnek (15 talán), ahol ha a zilt hozzáadtad, utána nem lehetett kivenni, és ha valamiért meghalt (pl. mert nem mirrorozott volt), akkor valami nagy mágiával lehetett csak kitúrni az diszkekből azokat az adatokat, amik ahhoz kellettek, hogy újra importálni tudd a poolt. Újabb zfsen elvileg már kevésbé problémás a dolog, de én mindig tükrözött zilt használok, biztos ami biztos.
Üdv,
Gergely
- A hozzászóláshoz be kell jelentkezni
Elég sokáig.
A ZFS jellegéből adódóan egyenletesen terheli az SSD celláit, mert nem ír felül adatblokkokat, hanem a változásokat új blokkokba írja.
Egyébként meg jó minőségű SSD-t kell venni, ami bírja az írást, mert a SLOG -ra csak és kizárólag írási IO kerül.
- A hozzászóláshoz be kell jelentkezni
Mi szamit "uj" -nak? Ha torlok egy 4G-s fajlt, akkor azt ujkent vagy regikent kezeli?
--
Ki oda vagyik, hol szall a galamb, elszalasztja a kincset itt alant. | Gentoo Portal
- A hozzászóláshoz be kell jelentkezni
A ZIL-ben nem fájlok tárolódnak, hanem blokkok.
Egy pillanatra elgondolkodtam azon, hogy a garbage collection és TRIM hogy működik ilyenkor, de rájöttem, hogy ha egyenletesen terheli az eszközt, akkor nincs szükség mindenféle varázslásra, mert közel egyformán "kopnak" a cellák.
- A hozzászóláshoz be kell jelentkezni
"20GB ZIL esetén 2GB/sec-el bejövő adatmennyiség esetén fog megtelni a ZIL."
Nos ez nem teljesen így van. A ZFS Intent Log meta adatokat tartalmaz.
A Separate Intent Log (SLOG) ZIL szinkron IO cachelésére használatos, az aszinkron IO mindig közvetlenül diszkre kerül.
Ahogy te is írtad, SLOG hozzáadásával gyorsíthatók a szinkron IO műveletek, azért mert az intent log (ami kb. a ext3 ext4 esetén a journaling-nak felel meg) gyorsabb eszközre kerül.
Ezen felül a kiírandó adat csak 64k-nál kisebb írási IO esetén kerül a ZIL-re, vagyis nem az összes kiírandó adat megy át a ZIL-en, csak jóval kevesebb.
A hivatalos dokumentációk egyébként RAM/2 méretű SLOG-ot javasolnak.
- A hozzászóláshoz be kell jelentkezni
Sok ram eseten is, pl. 128G?
tompos
- A hozzászóláshoz be kell jelentkezni
Nem tudom. :)
Elvileg nem szükséges.
Szerencsére dinamikusan lehet hozzáadni/elvenni a log dev-et, így lehet játszani a méretével.
Az SSD-t még L2ARC -ra is lehet használni (kb: másodlagos read cache) ezért ha pl. nagyobb méretű SSDnk van, a ZIL csökkentésével és az L2ARC növelésével lehet az olvasási teljesítményen is javítani, attól függően, hogy milyen az IO terhelés jellege.
szerk: egyébként, ha teheti az ember, ZIL-re és L2ARC-ra külön SSD-t érdemes használni.
ZIL-re olyat ami bírja az írást, megbízható, és nem feltétlen nagy méretű.
L2ARC-ra jó az olcsó, kevésbé megbízható, nagyobb méretű. Ezt még tükrözni sem kell, mert nincs adatvesztés ha megdöglik, legfeljebb csak csökken az olvasási teljesítmény.
szerk2: Ezzel a scripttel megnézhető, hogy mekkora a ZIL tényleges írási terhelése: http://www.richardelling.com/Home/scripts-and-programs-1/zilstat (dtrace alapú, szóval nem működik mindenhol)
- A hozzászóláshoz be kell jelentkezni
> Szerencsére dinamikusan lehet hozzáadni/elvenni a log dev-et, így lehet játszani a méretével.
Igen, ez vilagos es probalgatom is, de nem igazan uptodate a doksi. Az erdekelt, hogy mi a kozvetlen gyakorlati tapasztalatod ezugyben.
> ZIL-re olyat ami bírja az írást, megbízható, és nem feltétlen nagy méretű.
Nekem ettol fuggetlenul is az a tapasztalatom egyelore, hogy valojaban szinte mind1 az ssd-knek, hogy mennyit irsz rajuk. Legalabbis atlagos felhasznalas mellett (md raid es zfs eseten is). Kopp-kopp...
> L2ARC
Ha jol emlekszem, mirrorozva hozza sem lehet adni, ha kettot adsz hozza, akkor stripe-olva lesz
> script
Koszi, megnezem, bar linux-szal hasznalom, szoval erdekes lesz:)
Sokkal inkabb erdekelne ugyanez L2ARC-ra, hiszen a ZIL-t max. egy picit tulmeretezi az ember es 10 helyett 20G-t ad neki. De ZIL eseten lenyeges, hogy 120G v. 240G...vagy akarmennyi.
10x
tompos
- A hozzászóláshoz be kell jelentkezni
"Az erdekelt, hogy mi a kozvetlen gyakorlati tapasztalatod ezugyben."
Ja, külön ZIL-t csak teszteléskor használtam.
ZFS-re vagy mentéseket pakolok ahol nincs szükség külön ZIL eszközre, vagy FC SAN-van, ami meg elég gyors és azért nincs külön dev.
"Ha jol emlekszem, mirrorozva hozza sem lehet adni, ha kettot adsz hozza, akkor stripe-olva lesz"
pontosan. Csak azért írtam, mert felmerült feljebb a hardware-es raid is, ami L2ARC esetében felesleges.
- A hozzászóláshoz be kell jelentkezni
az intel 313 amit a zfsbuildes sracok is hasznalnak SLC, szoval elvileg nem gond az iras. jelenleg ZIL es L2ARC-ra is SSD-t tervezek
- A hozzászóláshoz be kell jelentkezni
Az egyetlen gond vele, hogy nincs power loss protection - ha befigyel egy aramszunet, zil eseten adatvesztes is lesz...
- A hozzászóláshoz be kell jelentkezni
alternativ otlet?
- A hozzászóláshoz be kell jelentkezni
Mennyi a valószínűsége, hogy úgy tönkremegy az SSD, hogy _olvasni_ nem tudsz róla, és áramszünet is lesz?
- A hozzászóláshoz be kell jelentkezni
mennyi a valoszinusege annak, hogy a memoria bufferben talalhato adatok (~64MB+), amelyek nem irodtak meg ki, az aramszunet soran stabil tarolora keruljenek ?
nem az a gond, ahogy ami stabil tarolora irodott azt esetleg nem tudja visszaolvasni, hanem az hogy a disk azt hazudta hogy kiirodott, kozben tenylegesen nem, csak a memoria bufferbe kerult bele
- A hozzászóláshoz be kell jelentkezni
100%. Ez a lényege az egésznek: amint az ZIL kiírásra kerül az SSD-ra, a ZFS jelez, hogy az adat stabil tárolón van. (Értelemszerűen szinkron műveletről beszélünk)
Diszk meg ne hazudja azt, hogy ki lett írva ha még nem. Ez ZFS-től, SSD-től független probléma, itt most nem arról van szó.
- A hozzászóláshoz be kell jelentkezni
de, pont arrol van szo, hogy az SSD azt mondja, hogy mar kiirta, holott meg nem.
- A hozzászóláshoz be kell jelentkezni
Az SSD már mondhatja azt, hogy kiírásra került, hiszen nem felejtő tárolón van az adat - az oprendszer feladata, hogy egy újraindulás után összelegózza az adatokat a kétféle tárolóról. Aztán hogy ténylegesen mikor kerülnek át a diszkre az adatok, az irreleváns, majd valamikor - ha leállítás során van "takarítás" (bbwc esetén illik, ssd-s cache esetén nem igazán tartom kritikusnak, pláne, hogy a diszkre már kiírt blokkoknál valahogy jelezni kell ezt az állapotot, azaz a diszkre írás az ssd-n is írási műveletet fog generálni. Egy bbwc más tészta, ott egyértelmű, hogy a cache csak átmenetileg képes tárolni a benne lévő adatot, ergo a szabályos leállításnál ki kell söpörni az utolsó bájtot is a cache-ből.
- A hozzászóláshoz be kell jelentkezni
Ha az SSD ilyet csinál, akkor ki kell dobni, és venni kell egy olyat, ami nem csinálja. Mégis hogyan képzelsz el egy olyan rendszert adatvesztés nélkül, ahol nem garantált, hogy az adat tényleges kiíródott?
A ZFS ebben az esetben is csak annyit tud, hogy mivel az überblock írása atomi művelet, ezért az fs mindig konzisztens állapotban van.
- A hozzászóláshoz be kell jelentkezni
Along with higher endurance, the SSD includes a new data loss protection feature, which maintains sufficient internal power via internal electrolytic capacitors with self-testing capabilities that can alert a systems administrator to irregularities. If power is lost, the drive automatically redirects writes in progress from the cache directly to the NAND flash, avoiding data loss, Peene said.
tessek, ezert lehet siman, hogy az SSD hazudik ;-)
- A hozzászóláshoz be kell jelentkezni
Nem ferne a kukaba a sok ssd. Nehany kiveteltol eltekintve joforman egyetlen ssd sem mukodik megfeleloen tapellatas hiba bekovetkezesekor.
FYI:
Huang-Wei Tseng, Laura M. Grupp, and Steven Swanson. Understanding the impact of power loss on flash memory. (DAC11)
- A hozzászóláshoz be kell jelentkezni
Akkor megint ott tartunk, ha fontos az adatbiztonság, akkor olyan SSD-t veszünk, ami megfelelően működik.
- A hozzászóláshoz be kell jelentkezni
Nehany bejegyzessel feljebb pont erre hivtam fel a figyelmet.
- A hozzászóláshoz be kell jelentkezni
tenyleg nem szokas ups-t tenni storage ele?
- A hozzászóláshoz be kell jelentkezni
ha ups van elotte, akkor a ramdisk is eleg, nem ? :] minek itt veszodni holmi ssd-vel...
- A hozzászóláshoz be kell jelentkezni
nem
- A hozzászóláshoz be kell jelentkezni
sub
- A hozzászóláshoz be kell jelentkezni
HW -raid csak az elem (battery backed) miatt lehet erdekes, egyebkent erdemesebb a soft raidet hasznalni IMHO.
Amit nem lehet megirni assemblyben, azt nem lehet megirni.
- A hozzászóláshoz be kell jelentkezni
Miert is?
--
"ssh in a for loop is not a solution" – Luke Kanies, Puppet developer
- A hozzászóláshoz be kell jelentkezni
Mirt jo az elem, vagy miert javaslom a software RAIDet ?
Amit nem lehet megirni assemblyben, azt nem lehet megirni.
- A hozzászóláshoz be kell jelentkezni
Konkretan egy ervet se hoztal fel az SW raid mellet.
--
"ssh in a for loop is not a solution" – Luke Kanies, Puppet developer
- A hozzászóláshoz be kell jelentkezni
A szokasos:
- Nem lassabb, mint a meregdraga raid vezerlo es gyakran Linux kernel softraid implementacio okosabbnak es gyorsabb bizonyul
Ha feltetlezuk, hogy egyforman okosak, akkor soft raid hatranya lehet, hogy tenylegesen (RAID 1, n*2 disk) 2x annyi I/O -t vegez a rendszer, ez mindadig nem baj, amig a bus vagy a CPU nem a szuk keresztmetszet (default: nem az).
- nincs vendor lock-in, HW -raidek neha furcsan taroljak dolgot, amit csak a josagos tervezojuk tud
Amit nem lehet megirni assemblyben, azt nem lehet megirni.
- A hozzászóláshoz be kell jelentkezni
Vegyünk egy "egyszerű" RAID5-öt. egy írás legalább egy olvasás és kettő darab írási művelet, közben meg checksum számolgatás. Azaz legalább három i/o-művelet egy írás. ILyen alapon a ToE-t is kikapcsolhatnád, hiszen "belefér" a hálózati forgalom checksum-számolgatása a modern cpu-k teljesítményébe...
- A hozzászóláshoz be kell jelentkezni
Eleg jol elmondtad miert nem preferalom RAID5 -ot, megha gyakran kicsit okosabban is tortenik a dolog..
RAID5 3 disk: 1* iras, 2* olvasas, 2* kapacitas
RAID10 4 disk (softraid): 2* iras, (2-)4* olvasas, 2* kapacitas
+1 disk olcsobb, mint egy raid vezerlo, a vegeredmeny gyorsabb is.
Amit nem lehet megirni assemblyben, azt nem lehet megirni.
- A hozzászóláshoz be kell jelentkezni
RAID5, 3 diszk esetén egy blokk írásához be kell rántani a "párját", amivel elkészül a checksum blokk, majd kiírni az új adatot és a megváltozott checksum-ot, azaz egy írás szoftveres raid esetén egy olvasás+kettő írás lesz szerintem... Mindezt célszerűen rábízod a vezérlőre, ami az OS felé egy darab írási művelettel letudja a dolgot. Egyébként nagy diszkeknél hot spare nélkül nem csinálnék raid5-öt (sw/hw raid mindegy ebben az esetben), úgyhogy a kettő diszk után a négy darabos felállás a következő nyugodtan alvós verzió - az meg összefűzött/tükrözött verzióban teljesen jó - még szerencsétlenül kidöglött két diszk esetében is megmarad az adatok egy része.
- A hozzászóláshoz be kell jelentkezni
Nagy diszkeknel nem biznek a raid5+spare-ben, csak raid6-ban, mert a hajadra kenheted a spare-t, amikor a szinkronizacio extra mod porgeti a HDD-ket, ugyhogy perszehogy tonkremegy meg1...
tompos
- A hozzászóláshoz be kell jelentkezni
Nekem mondod... :-P Láttam széthullani tizenx TB-os RAID5 tömböt sajna, és ott aztán hiába lett volna spare diszk, 10 percen belül sem a szinkron, sem a diszkcsere nem lett volna meg :-/ Aztán ugyanabban a gépben egy másik tömb is széthullott - kellemes éjszaka volt, mit ne mondjak... Azóta, ha jól tudom, problémamentesen ketyeg a vas, de immáron raid6-ba rakva a diszkeket...
A 3 nagy diszk raid5 - orosz rulett. Ha van egy 4d berakva hot spare-ként, akkor picit jobb - ellenberger négy diszknél valamilyen raid10 megoldásra hajlanék inkább, pláne a sw-es raid6 helyett.
- A hozzászóláshoz be kell jelentkezni
ellenberger? :-) Az a hamberger ellentete? :p
--
Ki oda vagyik, hol szall a galamb, elszalasztja a kincset itt alant. | Gentoo Portal
- A hozzászóláshoz be kell jelentkezni
http://www.lessfs.com <-- probalta mar valaki ?
Amit nem lehet megirni assemblyben, azt nem lehet megirni.
- A hozzászóláshoz be kell jelentkezni
Amennyire tudom, leallt a figura a fejlesztesevel, mivel a zfs megjelenesevel okafogyotta valt lenyegeben. Bar ezt igy leirva talan sosem olvastam es nem is kerdeztem ra.
A figura az energiajat inkabb egy storage tiering module fejlesztesere forditja (btier), hamarosan varhato az 1.0 kiadas.
tompos
- A hozzászóláshoz be kell jelentkezni
http://www.fsl.cs.sunysb.edu/docs/mudrankit-msthesis/mudrankit-msthesis… azt ne mond, hogy ez az arc is elment zfs -el jatszani, mielott publikalta volna a kodot.
Amit nem lehet megirni assemblyben, azt nem lehet megirni.
- A hozzászóláshoz be kell jelentkezni
Soha nem hallottam errol.
"Future Work
In the near future, we plan to prepare our code for release and provide maintenance support for some period of time."
Mikor?:)
tompos
ui.: Megjegyzem, ez sem kapcsolodik szorosan a topic-hoz...
- A hozzászóláshoz be kell jelentkezni
ZFS-ezni Nexenta, vagy vegyek Solarist? :)
- A hozzászóláshoz be kell jelentkezni
Ha Solarisban gondolozol nagyon nezd, meg hogy milyen vasat menyire tamogat...
Nexentanak van egy olyan jo szokasa, hogy egy disket kisajatit rendszernek, barmekora is legyen az a disk.
Amit nem lehet megirni assemblyben, azt nem lehet megirni.
- A hozzászóláshoz be kell jelentkezni
nem gaz, direkt lesz rendszernek RAID1, hasznalhatja :-)
- A hozzászóláshoz be kell jelentkezni
hogy lehetne HA-sitani a dobozt?
a BE24-es doboz backplaneje dual expanderes, azt lehetne ket HBA-ra kulon-kulon rakotni, de egyeb opciot nem nagyon latok...
- A hozzászóláshoz be kell jelentkezni
mas opcio: ket head + hatulra kivinni a backplane portokat, es a headekre bekotni + nexantanak a HA pluginje, ekkor tud aktiv-aktivban menni.
- A hozzászóláshoz be kell jelentkezni
(rejtett sub)
Aki esetleg nem ipari hanem otthoni storage servert bütykölne ZFS-el, annak ez egy elég jó választás lehet: http://www.nas4free.org/
- A hozzászóláshoz be kell jelentkezni
ez otthonra is jo... :)
- A hozzászóláshoz be kell jelentkezni
Látom van ötlet bőven.
És egy ilyen ház?
http://usa.chenbro.com/corporatesite/products_detail.php?sku=45
- A hozzászóláshoz be kell jelentkezni
mi az elonye a supermicroval? 9U-ban 50 diszk az eleg karcsu, es ahogy nezem, 3.5"
- A hozzászóláshoz be kell jelentkezni
ami most felmerult, az az, hogy a compute nodeokon lenne ceph, es nem lenne kozponti storage.
- A hozzászóláshoz be kell jelentkezni
szkeptikus vagyok az ilyen megoldásokkal szemben.... (let the flame begin)
- A hozzászóláshoz be kell jelentkezni
miert?
- A hozzászóláshoz be kell jelentkezni
Röviden: kevés tudás van belőle, iszonyat tákolás/reszelés lehet egy nagyobb architektúra összerakása.
Amíg egy iSCSI/NFS/FC alapú tárolás "régi" bejáratott technológiákon alapszik, és jól integrálható mindenfélével, addig a ceph, drbd és társai szerintem a sajtreszelővel rejszolás kategóriája.
Pl. egy nagyobb Citrix/VMware/Hyper-v cluster környezetbe triviálisan illeszthető egy SAN/NAS tároló, addig a ceph-et rá sem tudod hegeszteni arra a vasra, amin azok futnak. Ha saját magad rakod össze a kvm/xen akármi virtualizációs szervert, az 10-szer annyi idő, mint ugyanazt megoldást összepattintani kereskedelmi termékekből (vagy azok ingyenes verziójából.)
Más felhasználási területen, pl. web/adatbázis kiszolgálás esetén talán egyszerűbb a feladat, de akkor is kézzel kell implementálni, nincsenek hozzá management eszközök, stb.
Nem mondom, hogy nincs létjogosultsága, tuti, hogy van sokszáz terás referencia installáció, de talán akkor egyszerűbb egy ilyet hatékonyan összerakni és üzemeltetni, ha van a reszelgetéshez/szopáshoz megfelelő mennyiségű idő és kedv.
- A hozzászóláshoz be kell jelentkezni
Igen, ezzel egyet tudok erteni. vmwaret nagyon szeretnek, van hozza enterprise plus licenszunk is, de ugy, h openstack adja a public apit, a ceph pedig iscsin van behuzva datastorenak.
aprilis elejere mar szereztem tesztkornyezetet hozza :)
- A hozzászóláshoz be kell jelentkezni
eh, most esik le nekem, hogy te K+F környezetben vagy (eljutott az agyamig a "compute node"). :)
Egy ilyen helyen tényeg ki lehet hozni az ilyen elosztott rendszerekből jó dolgokat...
- A hozzászóláshoz be kell jelentkezni
Részben egyet is tudok veled érteni ebben, viszont pl, ingyenes kereskedelmi termékből hogy csinálsz HA-t pl? :)
---------------------------------------------------
Hell is empty and all the devils are here.
-- Wm. Shakespeare, "The Tempest"
- A hozzászóláshoz be kell jelentkezni
" pl, ingyenes kereskedelmi termékből hogy csinálsz HA-t pl? "
Úgy mint az ingyenes opensource termékkel: sok tákolással és szívással.
Egyébként meg terméke válogatja. Citrix xenserverből pl. megegyező szerverekkel és némi scripteléssel nem túl bonyolult. Vmware alatt már nem vagyok benne biztos, hogy megoldható.
Szerk: hyper-v -vel sem lehet ingyen, viszont ha már HA kell, akkor nem olyan nagy dolog kiköhögni azt az 1db windows szerver licenszet, ami a HA-hoz szükséges domain controllerhez kell.
Az ingyenes opensource cuccok is pénzbe kerülnek, csak éppen a legtöbbször munkaidő formájában fizeti ki az ember.
El kéne már fogadni, hogy a nagy rendelkezésre állású informatika bizony pénzbe kerül.
Akinek HA kell, az valószínűleg fontos üzleti célra használja, ami pénzt termel, vagy támogatja a pénzt termelő tevékenységet. Ez esetben meg tessék kiköhögni az árát.
Ideális esetben az ember kombinálja az ingyenes opensource és fizetős kereskedelmi termékeket, aszerint, hogy az adott infrastruktúrában az adott célra melyiket olcsóbb használni.
Pl. egy 20 windows munkaállomásos környezetbe a franc sem szivatja magát linux/samba/cups file/printer szerverrel (windows DC töredék idő, nagyságrendel nagyobb funkcionalitással), ellemben a pop3/imap/smtp mehet linuxra vidáman.
- A hozzászóláshoz be kell jelentkezni
"Citrix xenserverből pl. megegyező szerverekkel és némi scripteléssel nem túl bonyolult."
Az eula-t sérted gondolom egyértelműen ezzel ugye :) ?!
Egyértelmű hogy pénzbe kerülnek, mégpedig kemény mérnökórákba, de ha ezt üresjáratban teszi az ember, akkor számolhatjuk ingyenesnek is.. :)
"Akinek HA kell, az valószínűleg fontos üzleti célra használja, ami pénzt termel, vagy támogatja a pénzt termelő tevékenységet. Ez esetben meg tessék kiköhögni az árát."
Persze, de nem mindegy mit és hogyan..
Amelyik cég alapból nyitott az open source vonalra, és úgy gondolja, neki jobban megtérül mérnökórát/üresjáratot feccölni bele, az nyert vele, főleg ha ha egyszer ismeri a technológiát,onnan kvázi ingyen viszi, nem az éves licencel.
És ha nem is fél év alatt, de 5 alatt ez jobb lesz szerintem.
De nem generálom magunknak a konkurenciát, persze vegyétek csak a fizetőset mindenből, mindenre :)
---------------------------------------------------
Hell is empty and all the devils are here.
-- Wm. Shakespeare, "The Tempest"
- A hozzászóláshoz be kell jelentkezni
" eula-t sérted gondolom egyértelműen ezzel ugye :) ?!"
Nem sérted. Live migration az ingyenes Citrixben is van. senki nem akadályoz meg, hogy ne csinálj pár scriptet, ami figyeli a VM-ek állapotát, aztán kapcsolgat ha kell.
"Egyértelmű hogy pénzbe kerülnek, mégpedig kemény mérnökórákba, de ha ezt üresjáratban teszi az ember, akkor számolhatjuk ingyenesnek is.. :)"
Soha nem ingyenes. Fizetés formájában odaadod a mérnöknek, és nem termel belőle pénzt.
Amiről te beszélsz, az gyakorlatilag egy hosszú távú és jelentős tőkeigényű termékfejlesztés.
Olyan helyen van értelme csinálni, ahol ez a tudás pénzzé tehető, vagy akkora méretben lehet alkalmazni, ahol már a saját innováció költséghatékonyabb is lehet.
Ahol az IT kiszolgáló terület, ott is lehet sikeresen ingyenes opensource megoldást alkalmazni, de ekkor nyilván egy külső beszállító implementálja, ami ha licenszdíjat nem is kér, bizony nem ingyen dolgozik. Ez esetben az ügyfél megnézi, hogy a fizetős szoftvert ajánló cég és az ingyenes szoftvert ajánló cég megoldása mennyibe kerül. Van úgy hogy az egyik olcsóbb, van úgy hogy a másik.
(zárójeles megjegyzés: Ha az ingyenes open source terméket szállító cég a kérdéses megoldást "megpatkolja" saját fejlesztéseivel, akkor az ügyfél könnyen egy kedves kis vendor-lock-in szituban találhatja magát. Ez mondjuk az ingyenes opensource terméket szállító cégnek egy előnyös helyzet.)
"De nem generálom magunknak a konkurenciát, persze vegyétek csak a fizetőset mindenből, mindenre :)"
Eredetileg ez a thread nem erről szólt. A ceph féle elosztott rendszer vs. "hagyományos" NAS/SAN rendszerek. És eredetileg nem is az ingyenes opensource-al kapcsolatban emlegettem a "reszelés/szopás" kifejezéseket, hanem a ceph és hozzá hasonló relative új (az én konzervatív felfogásomban még experimental) jellegű rendszerekre mondtam.
A "nagy rendelkezésre állású informatika pénzbe kerül" sem azt jelenti, hogy nem lehet ingyenes open source programokkal megoldani. Gyakran jobban is meg lehet oldani, de akkor is (sok) pénzbe kerül: kell normális vas, és jó szakember.
Ha jobban körülnézel, látod, hogy az egész topic egy ingyenes, opensource szoftveren alapuló storage építéséről szól, amihez úgy gondolom adtam én is pár használható tanácsot (sőt, 1-2 hónapja nekem is eszembe jutott, hogy kéne egy ilyet összerakni saját használatra), és egyszer nem említettem, hogy vegyen az illető egy normális EMC-t vagy Netappot. :)
Nagyon eltértünk a témától, szerintem ezt itt zárjuk le.
- A hozzászóláshoz be kell jelentkezni
EMC arak erdekelnenek, akar privatban is.
Netappnal zavar, h nem tudok bele csak netapp diszkeket rakni :(
- A hozzászóláshoz be kell jelentkezni
EMC-be pedig csak EMC diszkeket. :)
Ha tényleg érdekel dobj meg egy privváttal, hogy kb. milyen konfig kéne. Nem igazán listaáras történet...
- A hozzászóláshoz be kell jelentkezni
SUN/Oracle X45xx sorozata, abba fér 48db disk, Solaris + zfs, lehet nexenta is elfut rajta nem tudom, mi solarissal használjuk.
Fedora 17, Thinkpad x61s
- A hozzászóláshoz be kell jelentkezni
es ez kb 5x annyiba kerul, mint amennyit en fent leirtam...
- A hozzászóláshoz be kell jelentkezni
Éééés brutális hangja van neki... Meg áramfogyasztása. És érdekesen lehet benne diszket cserélni :-)
- A hozzászóláshoz be kell jelentkezni
Eeees random potyognak le a diskek a kontrollerekrol :)
- A hozzászóláshoz be kell jelentkezni
Ne is mondd, volt szerencsém pár TB-nyi adatot látni így elveszni - szerencsére egy rakat drbd tartalék fele volt, úgyhogy annyira nem volt para... Az egyik széthullott raid5 tömb. A másik igen :-/
- A hozzászóláshoz be kell jelentkezni
Hello zeller, tudom, most en latom azokat a raid tomboket ;)
- A hozzászóláshoz be kell jelentkezni
De legalább lett egy csomó hely, és meg lehetett lépni a RAID6-ra váltást :-D
- A hozzászóláshoz be kell jelentkezni
Ehhez mit szolnal?
http://hup.hu/node/122989
- A hozzászóláshoz be kell jelentkezni
azt, hogy mivel cegeskent epitem igy
- nem tudok hasznaltat venni
- nem tudok svajcon kivulrol venni
:)
- A hozzászóláshoz be kell jelentkezni
uj, es akar svajcon beluli ...
- A hozzászóláshoz be kell jelentkezni
koszi, de majd rabizom a beszerzesi osztalyra, konkretan honnan veszik meg. en csak leadom az alkatreszlistat.
- A hozzászóláshoz be kell jelentkezni
Szerintem ez a konfig pont olyan mint amilyet szeretnel, mondjuk a ket pulzar sas ssd kicsit dobna az aron de az kivalthato valami kisebb koltseghatekonyabb ssd-vel.
- A hozzászóláshoz be kell jelentkezni
És már jópár éve nem kapható újonnan, de tény, hogy nagyon ott van a cucc. Viszont most a HP előjött valami hasonlóval SL45xx néven.
- A hozzászóláshoz be kell jelentkezni
sub
- A hozzászóláshoz be kell jelentkezni
Ha összeállt a vas, egy IOzone-t futtass már rajta plz, a pontos konfig megadása mellett...
---------------------------------------------------
Hell is empty and all the devils are here.
-- Wm. Shakespeare, "The Tempest"
- A hozzászóláshoz be kell jelentkezni
Az iozone eredmenyre en is kivancsi vagyok, osszehasonlitanam az intel vassal.
- A hozzászóláshoz be kell jelentkezni
updateltem a veleges konfiggal.
- A hozzászóláshoz be kell jelentkezni
Az L2ARC-ból okosan levezettem, hogy ZFS lesz rajta, de milyen OS?
A ZIL is ezen a 330-ason lesz? Azt nem kéne duplikálni?
Gondolom RAM-ból kitömitek a 32GB-re.
Hány VM szerver lesz rálógatva és milyen topológiával?
A 2x256GB SSD gyors storage-nak lesz (pl. VM swap)?
Az 5 seagate mirrorban lesz 1 tartalékkal, vagy raidzX?
Üdv,
Gergely
- A hozzászóláshoz be kell jelentkezni
nexenta/fbsd
egyelore megnezzuk ZIL/L2ARC nelkul, aztan megnezzuk mennyit dob rajta, ha vannak
mivel ez foleg "jatszos" storage, igy nem olyan sok VM, kb 40-60
gyors storagenak, igen, viszont openstacken at barmelyik juzer kerhet maganak egy iSCSI targetet, igy igazabol arra hasznalja, amire akarja
ezt meg nem talaltuk ki, valszin mirror+1 tartalek egyelore, ha a performancia keves, akkor valtunk
- A hozzászóláshoz be kell jelentkezni
a nexenta kozolte, hogy a chelsio t420 nem tamogatott, szoval nincs vele 10G-m. FreeBSD-vel meg egyeb bajaim vannak jelenleg :(
- A hozzászóláshoz be kell jelentkezni
zfsonlinux? Ha nem kellenek ACLek, akkor még akár jó is lehet. Nálunk egy ideje már ez ketyeg több szerveren.
- A hozzászóláshoz be kell jelentkezni
neztem azt is, a githubon nem nyultak 3 honapja a kodjahoz.. nagyon megorultek annak a kiadasnak, es most elmentek a sracok pihenni, vagy nem tudom :-) raadasul nagyon egy emberes projektnek tunik.
- A hozzászóláshoz be kell jelentkezni
Pedig aktiv a projekt:
https://groups.google.com/a/zfsonlinux.org/forum/?fromgroups#!forum/zfs…
https://groups.google.com/a/zfsonlinux.org/forum/?fromgroups#!forum/zfs…
Es nem is 1 emberes. Azt passzolom, h miert 1 (honnan vetted a 3-at?) honapos az utolso commit.
tompos
- A hozzászóláshoz be kell jelentkezni
ok, tenyleg "csak" egy honap. rossz githubos oldalt neztem. meg probalkozok fbsdvel egy darabig (azert olyan konnyen nem szoktam feladni), aztan majd meglatjuk.
vajon fbsd 9.1-el osszehasonlitva hogy all a zfs on linux?
- A hozzászóláshoz be kell jelentkezni
FBSD-n jo ideje nem neztem, csak a levlistak bejegyzesei alapjan vannak benyomasaim.
Ezek alapjan ugy tunik, meg vmivel talan kevesbe kiforrott. Ha jol latom, az Illumos-t tekinti mindket projekt az upstream-nek, de feature-ok portolasa megy ide es oda is.
Ha pl. jon vki, h vagy egy corrupt pool-ja, akkor probaltatjak vele mindenfele live rendszerekkel importaltatni is, koztuk fbsd-sel is.
A ZoL-t ha nem is gozerovel, de azert fejlesztik intenziven, de nem tudom, hogy az spl alkotta +1 reteg miatti problemakat le fogja valaha vetkozni. Elofordul kernel panic is miatta a bugracker szerint, bar amikre egyebkent trivialisak szoktak lenni a fix-ek.
Nekem szubjektiven ez a meglatasom.
tompos
- A hozzászóláshoz be kell jelentkezni
Ennek a monsternek: http://hup.hu/node/122989
itt vannak a tesztjei osszehasonlitaskent:
- A hozzászóláshoz be kell jelentkezni
ez fbsd vagy zfs on linux?
- A hozzászóláshoz be kell jelentkezni
zfs on linux
- A hozzászóláshoz be kell jelentkezni
Jo reggelt!
Hasonlo cuccot szeretnek, ill. en kb. ket eve csinaltam is valamit ami mukodik es tetszik, csak eleg kokany, raadasul kezdem kinoni, szoval fejleszteni kell egy kicsit.
A cel: nagyobb mennyisegu adat tarolasa es egy kisebb/kozepes tesztkornyezet (a teljesitmeny nem kritikus) virtualis gepei ala tarhely (errol futnak a gepek vagy helyben, vagy iSCSI-rol).
Korabban nagyjabol ezek voltak az elvek, ebbol most sem engednek, foleg mivel ezek mar adottak:
-ECC RAM
-HW RAID6
A jelenlegi allapot:
-Intel S1200BTL
-valami ULV Core i3 (meg Sandy Bridge alapu)
-16GB ECC RAM
-Intel RS2BL040 RAID hartya
-2x Intel AXX6DRV3GEXP (SAS expanderes hotswap cage)
-12x Hitachi 2T/7200RPM HDD (7K2000/7K3000 vegyesen)
-hulladek haz (Codegen 4U500)
-FSP Epsilon tokomtudja milyen tap (500-600W)
Igazabol a hazzal es a tappal vagyok bajban, a tobbit megoldom, ill. van elkepzelesem a megoldasra.
Eredetileg 4U600 hazat szerettem volna, mert azt a hazat egy kicsit atalakitva belefert volna a ket hotswap cage (sot, meg tovabbi ketto is), aztan 4U600 nem volt sehol (azota sincs, kb. UK-bol lehetne rendelni), az Intel cage is EOL lett tavaly (nincs is utodja, mas iranyba indult a ceg). A tappal az a baj, hogy allandoan ugat miatta az alaplap, ill. bekapcsolasnal nem mindig indul elsore a gep (amikor egyszerre akar elindulni a jelenlegi 18db HDD az kicsit sok, es bar a tap birna, de az alaplap ugy latja hogy nem es suru anyazas (IPMI logba) es sipolas kozben kikapcsol...)
Szoval olyan hazat keresek, ami min. 16-24db 3.5"-os SATA/SAS hotswap fiokkal rendelkezik, hasznalni tudom a meglevo RAID kartyamat (vagy kompatibilis a hazba esetlegesen beepitett expanderrel vagy szerzek Intel RES2SV240 expandert), kepes rendesen meghajtani a drive LED-eket (most pl. nem csak aktivitast latok, hanem hiba eseten szep narancssarga lesz az adott drive LED-je; ebbol sem szeretnek engedni), tudok bele olyan (vagy annyi:) tapot rakni ami megbirkozik ennyi vinyoval (staggered spin up nincs, a desktop HDD-k maradnak, sot gyarapodnak...), es nem kerul 2000USD-be.
4-5U rack formatum preferalt, de felolem lehet torony is vagy barmi, igazabol nincs jelentosege.
A hazat (uresen) szeretnem max. 100k korul meguszni.
Amit eddig talaltam (Supermicro, Chenbro, stb) az nem ez a kategoria:/
- A hozzászóláshoz be kell jelentkezni
Ha nem kell táp redundancia az FSP táp jó tipp. Mondjuk egy Aurum 700-as vagy 92+-os esetleg. Házból ekkora viszont nem lesz 100e körül. A Supermicronak vannak (igaz táppal együtt) 12-26-24 SATA/SAS hostswap fiókos házai, de szerintem 150-180e nettónál nyitnak.
- A hozzászóláshoz be kell jelentkezni
Redundancia nem kell, nem kritikus cucc es ugysincs redundans betap:) Tappal az a baj, hogy az ossz fogyasztas nem sok (200W koruli ertek dereng, de regen mericskeltem), csak a bekapcsolasnal fellepo lorugast viseli nehezen:)
Hazbol amit lattam es tetszene az 350k (igaz ez mar kisker brutto), ezert kerdeztem, hogy van-e valakinek olcsobb javaslata:) Ha lenne meg jelenleg hasznalt expanderes cage-hez hasonlo cucc akkor egy 4U600 haz es egy kis barkacs megoldana a problemat fillerekbol, de nincs egyik sem, hogy rohadnanak meg.
- A hozzászóláshoz be kell jelentkezni
Igen, főleg az induláskori lórugás miatt írtam. Ezek az 80 plus gold tápok egyébként már 20% felett 88-89%-os hatásfokon mennek. A 16-24 diszkkel pedig hamar összejönnek a wattok. :)
- A hozzászóláshoz be kell jelentkezni
24/7-ben menő gépekhez én is fsp aurum sorozatot szoktam választani. Fogyasztásra sem árt figyelni kicsit.
- A hozzászóláshoz be kell jelentkezni
Azzal a tappal van valami gond akkor.
Nekem 350W FSP tap visz egy six core gepet 14 hdd tarsasagaban.
http://karikasostor.hu - Az autentikus zajforrás.
- A hozzászóláshoz be kell jelentkezni
Nekem ugy tunik, hogy a tap birja (birna), csak az alaplap finnyas.
Eloszor (meg joval kevesebb vinyoval) valami (szinten 'gagyinak' mondhato:) Enermax tappal probalkoztam, azzal pl. be sem lehetett kapcsolni. Az a tap azota is megy sima desktop lappal (C2Q procival, viszonylag eros VGA-val, 2-3 vinyoval, szoval valoszinuleg sokkal nagyobb terhelest kap mint ULV i3-mal, (akkor meg csak) 6-7 vinyoval kapott volna)
Hiaba, ezek a PC-k szepsegei.
- A hozzászóláshoz be kell jelentkezni
mmm, nem semmi :)
- A hozzászóláshoz be kell jelentkezni
Na, a hazra csak talaltam valamit:
http://www.norcotek.com/item_detail.php?categoryid=1&modelno=rpc-4224
Sajnos ez is csak Kulfoldisztanban kaphato, de az ar kb. stimmel (~400USD). A szallitast nem mertem megnezni, gondolom van vagy masfelszer annyi mint maga a haz:)
Enclosure management persze ebben {n|s}incs.
- A hozzászóláshoz be kell jelentkezni
Nehanyan mersekelt sikerrel hasznaltak:
http://wsyntax.com/cs/killer-norco-case/
- A hozzászóláshoz be kell jelentkezni
Hat ez gyonyoru...
Bar azt azert hozzatennem, hogy a FET-ek parhuzamosan kapcsolasa altalanosan elterjedt gyakorlat es par apro szabaly betartasaval hibatlanul mukodik, bar jelen esetben lehet, hogy jobb lett volna valami combosabb tipusra cserelni...
- A hozzászóláshoz be kell jelentkezni
neha azert a kommenteket is erdemes megnezni...
Hello, this kind of backplane has been discontinued over 2 years. New version backplane can work well with 3TB or larger drives. If you have any problem with Norco products, please contact service@norcotek.com. Thank you!
ergo nem szamit, hogy regen elrontottak, hogyha mostmar kijavitottak.
- A hozzászóláshoz be kell jelentkezni
az elmult par hetes tesztek es meresek eredmenye az, hogy ha vmware ala fogod hasznalni, nfs-el (ami sync writeokat csinal), akkor a szuk keresztmetszet a ZIL latencyje. egy samsung 840pro (256gb) kb 110mega/s -el tud szinkronban irni, es ennyi...
hazat en sem talaltam olcsobban mint kb 400k, ha talalsz, szolj ;-)
- A hozzászóláshoz be kell jelentkezni
Nem az intel 330-as lett a write performance miatt véve?
- A hozzászóláshoz be kell jelentkezni
313-at akartam, mert az SLC, de a 840pro mar keznel volt (meg van 520-am is elfekvoben)
- A hozzászóláshoz be kell jelentkezni
A power loss protection (hianya) miatt elegge orosz rulett. Nehany kesleltetes meresi eredmeny:
Samsung 840pro:
http://www.storagereview.com/images/samsung_ssd_840_pro_512gb_precondit…
http://www.storagereview.com/images/samsung_ssd_840_pro_512gb_precondit…
Intel S3700:
http://www.storagereview.com/images/intel_ssd_dc_s3700_preconditioning_…
http://www.storagereview.com/images/intel_ssd_dc_s3700_preconditioning_…
ioDrive2 Duo (slc - ez nem egy arkategoria):
http://www.storagereview.com/images/fusion_iodrive2_duo_slc_preconditio…
http://www.storagereview.com/images/fusion_iodrive2_duo_slc_preconditio…
- A hozzászóláshoz be kell jelentkezni
megneztem, 180 frankert itt van az intel hotswap cage, ha kell boltolni valamit, megoldhatjuk.
- A hozzászóláshoz be kell jelentkezni
Sub, nagyon érdekes a topic.
- A hozzászóláshoz be kell jelentkezni
+1 sub
- A hozzászóláshoz be kell jelentkezni
intel 520 eredmenyek, Jens Axboe ssd-steadystate.fio scriptjevel:
(egy LSI HBA-n van, SAS2-es porton sajnos, szoval csak 3Gbit/s)
root@x:~# fio ssd-steadystate.fio
sequential-fill: (g=0): rw=write, bs=1M-1M/1M-1M, ioengine=libaio, iodepth=16
random-write-steady: (g=1): rw=randwrite, bs=4K-4K/4K-4K, ioengine=libaio, iodepth=32
...
random-write-steady: (g=1): rw=randwrite, bs=4K-4K/4K-4K, ioengine=libaio, iodepth=32
2.0.8
Starting 5 processes
Jobs: 1 (f=1): [_w___] [99.8% done] [0K/169.7M /s] [0 /43.5K iops] [eta 00m:16s]
sequential-fill: (groupid=0, jobs=1): err= 0: pid=13704
Description : [Sequential fill phase]
write: io=228936MB, bw=254191KB/s, iops=248 , runt=922262msec
slat (usec): min=57 , max=161 , avg=88.19, stdev= 8.42
clat (msec): min=4 , max=120 , avg=64.36, stdev= 6.36
lat (msec): min=4 , max=120 , avg=64.45, stdev= 6.36
clat percentiles (msec):
| 1.00th=[ 63], 5.00th=[ 64], 10.00th=[ 64], 20.00th=[ 64],
| 30.00th=[ 64], 40.00th=[ 64], 50.00th=[ 64], 60.00th=[ 64],
| 70.00th=[ 64], 80.00th=[ 64], 90.00th=[ 64], 95.00th=[ 69],
| 99.00th=[ 104], 99.50th=[ 105], 99.90th=[ 110], 99.95th=[ 113],
| 99.99th=[ 118]
bw (KB/s) : min=230962, max=259576, per=100.00%, avg=254523.28, stdev=6784.71
lat (msec) : 10=0.01%, 20=0.01%, 50=0.01%, 100=97.93%, 250=2.06%
cpu : usr=1.33%, sys=1.53%, ctx=232684, majf=0, minf=25
IO depths : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=100.0%, 32=0.0%, >=64=0.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.1%, 32=0.0%, 64=0.0%, >=64=0.0%
issued : total=r=0/w=228936/d=0, short=r=0/w=0/d=0
random-write-steady: (groupid=1, jobs=4): err= 0: pid=13727
Description : [Random write steady state phase]
write: io=909808MB, bw=137254KB/s, iops=34313 , runt=6787748msec
slat (usec): min=1 , max=202 , avg= 6.53, stdev= 4.38
clat (usec): min=370 , max=167539 , avg=3712.98, stdev=2978.15
lat (usec): min=381 , max=167556 , avg=3719.86, stdev=2978.20
clat percentiles (msec):
| 1.00th=[ 3], 5.00th=[ 3], 10.00th=[ 3], 20.00th=[ 3],
| 30.00th=[ 4], 40.00th=[ 4], 50.00th=[ 4], 60.00th=[ 4],
| 70.00th=[ 4], 80.00th=[ 4], 90.00th=[ 7], 95.00th=[ 7],
| 99.00th=[ 9], 99.50th=[ 13], 99.90th=[ 45], 99.95th=[ 66],
| 99.99th=[ 102]
bw (KB/s) : min=11840, max=174464, per=25.06%, avg=34389.73, stdev=8436.36
lat (usec) : 500=0.01%, 750=0.05%, 1000=0.01%
lat (msec) : 2=0.23%, 4=83.78%, 10=15.20%, 20=0.43%, 50=0.22%
lat (msec) : 100=0.07%, 250=0.01%
cpu : usr=6.99%, sys=10.63%, ctx=203534882, majf=0, minf=560
IO depths : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=0.1%, 32=100.0%, >=64=0.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.1%, 64=0.0%, >=64=0.0%
issued : total=r=0/w=232910950/d=0, short=r=0/w=0/d=0
Run status group 0 (all jobs):
WRITE: io=228936MB, aggrb=254190KB/s, minb=254190KB/s, maxb=254190KB/s, mint=922262msec, maxt=922262msec
Run status group 1 (all jobs):
WRITE: io=909808MB, aggrb=137253KB/s, minb=137253KB/s, maxb=137253KB/s, mint=6787748msec, maxt=6787748msec
Disk stats (read/write):
sdi: ios=275/233366233, merge=0/1672, ticks=324/890319028, in_queue=892197916, util=100.00%
root@x:~#
- A hozzászóláshoz be kell jelentkezni
A scriptre tudnal dobni egy linket?
--
Ki oda vagyik, hol szall a galamb, elszalasztja a kincset itt alant.
- A hozzászóláshoz be kell jelentkezni
Kosz.
--
Ki oda vagyik, hol szall a galamb, elszalasztja a kincset itt alant.
- A hozzászóláshoz be kell jelentkezni
"SAS2-es porton sajnos, szoval csak 3Gbit/s"
A SAS-2 6Gbps, ahogy a SATA-III is. Persze lehet, hogy a vezérlő a SAS-2 port ellenére nem támogatja a SATA-III szabványt.
- A hozzászóláshoz be kell jelentkezni
Eight internal 3Gb/s SATA and SAS ports
sajna csak 3gb/s
- A hozzászóláshoz be kell jelentkezni
erdekes problema: http://serverfault.com/questions/520141/please-explain-my-fio-results-i…
egy lehetseges magyarazat a freebsd-fs listarol: http://lists.freebsd.org/pipermail/freebsd-fs/2013-July/017717.html
- A hozzászóláshoz be kell jelentkezni
az intel 520-bol kuldhetek is vissza egyet, mindossze kb 4TB iras utan...
- A hozzászóláshoz be kell jelentkezni
[off]Valahogy nem lep meg! Én csak csöndben figyelem a totyikot, de saját eddigi tapasztalataim alapján az eleje óta nem értem, hogy is az az SSD!? Értem én, hogy sebesség mindenek felett, de a technikai nem feltétlen gondolja így hosszú távon is...[off]
- A hozzászóláshoz be kell jelentkezni
jelenleg a kedvencem a samsung 840pro-ja amugy.
- A hozzászóláshoz be kell jelentkezni
Hat amenyi hagyomanyos berregovel volt most bajuk az elso hetukben, akkar a arra is mondhatjuk, hogy meg nem tartanak ott. :)
Amit nem lehet megirni assemblyben, azt nem lehet megirni.
- A hozzászóláshoz be kell jelentkezni
Most van nálam kingstone enterprise szériája tesztelésre, jelenleg 1PBájt írásnál tart.
Fedora 19, Thinkpad x61s
- A hozzászóláshoz be kell jelentkezni
meg tudnad csinalni a fio-s tesztet O_DIRECT|O_SYNC -el? erdekelne a 4k, 128k es az 1M bs-es iras is.
- A hozzászóláshoz be kell jelentkezni
Holnap ha lesz időm lefuttatom, bár így hogy 1 hónapja folyamatosan írvva van a disk, nem tudom mennyire lesz mérvadó.
Fedora 19, Thinkpad x61s
- A hozzászóláshoz be kell jelentkezni
a kingston ugyan nem adja meg, h mennyi irasig van gari, viszont hasonlo intel eMLC-s SSD-kre 875TB-t garantalnak, szoval zsakbamacska egy kicsit. :)
- A hozzászóláshoz be kell jelentkezni
Kingston-ok adatkapján rajta van egy TBW érték. Én V300-ast néztem ki SOHO cuccohoz, annak a 60GB-os verziójára emlékeim szerint 47 vagy 48TB-ot adnak meg. KC300-asnak meg 46,5TB-ot, ami a 875-höz képest elég karcsúnak tűnik.
A Samsung 840Pro mennyire vált be? Én majdnem mellényúltam, mert csak 840-es volt raktáron, aztán kiderült, hogy a sima 840-es TLC és nem MLC.
Amin még gondolkozom az a Kingston KC300-as, csak az adatai alapján nem tudom eldönteni, hogy "tud-e" annyival többet a V300-nál, mint amennyivel drágább.
- A hozzászóláshoz be kell jelentkezni
teljesen. a 840pro a kedvenc olcso SSD-m most.
- A hozzászóláshoz be kell jelentkezni
Itt lesznek a tesztek, remélem erre gondoltál:
http://solaris.unsoft.hu/~ventura/ssd-test/
Fedora 19, Thinkpad x61s
- A hozzászóláshoz be kell jelentkezni
igen, erre, koszi. bar mehetett volna nagyobb adatmennyiseggel is, mert igy meg cachelhet is a drive, de ez mar csak reszletkerdes.
osszefoglalom a tobbieknek (meg a guglinak):
4k random writera, elobb direct, utana sync:
lat (usec): min=25 , max=24682 , avg=65.67, stdev=138.20
WRITE: io=14015MB, aggrb=239179KB/s, minb=239179KB/s, maxb=239179KB/s, mint=60001msec, maxt=60001mseclat (msec): min=2 , max=48 , avg= 9.11, stdev= 1.12
WRITE: io=105264KB, aggrb=1754KB/s, minb=1754KB/s, maxb=1754KB/s, mint=60001msec, maxt=60001msec
128k random write:
lat (usec): min=356 , max=30810 , avg=1223.04, stdev=802.10
WRITE: io=24472MB, aggrb=417633KB/s, minb=417633KB/s, maxb=417633KB/s, mint=60002msec, maxt=60002mseclat (msec): min=1 , max=66 , avg=14.34, stdev= 2.90
WRITE: io=2085.2MB, aggrb=35585KB/s, minb=35585KB/s, maxb=35585KB/s, mint=60001msec, maxt=60001msec
1M random write:
lat (msec): min=3 , max=57 , avg= 9.69, stdev= 3.70
WRITE: io=24755MB, aggrb=422274KB/s, minb=422274KB/s, maxb=422274KB/s, mint=60030msec, maxt=60030mseclat (msec): min=7 , max=78 , avg=30.16, stdev= 5.02
WRITE: io=7883.0MB, aggrb=134532KB/s, minb=134532KB/s, maxb=134532KB/s, mint=60002msec, maxt=60002msec
jol latszik ugyanaz a betegseg, ami nalam elojott: sync writenal egyszeruen meghal az egesz sebesseg, a latency meg megy az egekbe.
(leteszteltem egy fusion ioDrive2-vel is, ott ugyanazt az eredmenyt kapom sync nelkul, meg sync-el is, de nyilvan par az aruk kozott kb egy 20x-os szorzo)
- A hozzászóláshoz be kell jelentkezni
ssdnow E100-ról van szó? Mert a Kingston besorolása szerint az az egyetlen enterspájz szériájuk. A mókás az, hogy az összes többi sorozatra (V V+) rámondják, hogy biznisz és konzumer kategória. (V300 pl.)
- A hozzászóláshoz be kell jelentkezni
Igen az, SSDNOW 100 E ha jól emlékszem.
Fedora 19, Thinkpad x61s
- A hozzászóláshoz be kell jelentkezni
akkor dobjuk fel a topicot kicsit :-)
van valaki, aki esetleg full SSD kiepitesben (8x, 16x, 24x) rakott NFS-t VMek ala?
nezegettem a nexentat is, de igazabol akkora hely nem kell (~12TB eleg lenne), viszont a compression/dedup jol jonne, btrfssel meg nincs kedvem orosz rulettezni..
- A hozzászóláshoz be kell jelentkezni
NFSen Nexenta nem ajánlja a storage szintű dedupot, csak a compressiont.....
más, kéne nekem 8GBit FC-n kiadni kb 10-15TB tárhelyet, inkább területre és peak io-ra számolva (mentések mennének rá), mit ajánlasz? vmi 24x 2,5" chassisban gondolkodom, SATA3 esetleg SAS diskekkel, ZIL es ARC cachenek 2x64GB és 1x 64GB SSD -vel...
szerk: pontosabban best prctice szerint ha nfsen adod oda VMWarenak akkor dedup off az adott volumeon
- A hozzászóláshoz be kell jelentkezni
en mostanaban ceph orult lettem, az az igazsag, hogy nagyon tetszik, de nem tud se compressiont, se dedupot*, es minden alapbol mindent replikal, azaz fele annyi hellyel kell szamolni, viszont ha csak mentesek mennek ra, akkor 3TB-s diszkbol szerintem 20db nem draga :-)
a supermicro 24x2.5"-es doboza bejon, van a kezem alatt, gondolom a 3.5"-es dobozaik sem rosszabbak, mert bizony a 3T-s diszkekhez mar 3.5"-es chassis kell valoszinuleg.
*: mivel OSD-knek igazabol filerendszert hasznal (ill a diszk es a ceph-osd kozott ott az fs), igy ott be lehet kapcsolni mindkettot btrfs eseten pl, de en nem mertem eddig btrfst hasznalni :)
- A hozzászóláshoz be kell jelentkezni
Elvileg mukodik zfs-sel is, vagy legalabbis dolgoznak a tamogatason, de semmikepp nem lehet prod. ready-nek nevezni.
- A hozzászóláshoz be kell jelentkezni
Na meghozták az első kecskék az árakat...
jelenlegi terv:
1x Supermicro SSG-6047R-E1R24L
2x Ivy Bridge 6C E5-2620V2 2.1G 15M 7.2GT/s QPI
8x 8GB DDR3-1600 2Rx8 1.35v ECC REG RoHS
18x SEAGATE 4.0TB SAS 6Gb/s 7.2K RPM 128MB 3.5" 512N
1x Qlogic QLE2560-CK Single 8Gbe FC
+ vmi SSD-vel megtámadni ZIL + ARCL2
- A hozzászóláshoz be kell jelentkezni
ha csak egy gepre van szukseg, franko. azonban skalazodni nem fog.
a mi ceph clusterunk azota is teszi a dolgat, most lesz egy nagyobb bovites... :)
- A hozzászóláshoz be kell jelentkezni
nem, ennek a dedikalt celja "csak" raw storage lenne, disk2disk2tape backup rendszer alá.
- A hozzászóláshoz be kell jelentkezni
esetleg van egy linked, ahol a ceph clusterről bővebb infód van? blog stb
- A hozzászóláshoz be kell jelentkezni
a blogomban irtam rola; szerintem >1 gepnel mar megeri.
- A hozzászóláshoz be kell jelentkezni
jahogy distributed storage....
nekem az tényleg nem izgalmas perpill.. esetleg majd DR site, oda meg zfs snapshot aztán szóljon....
- A hozzászóláshoz be kell jelentkezni
nem a distributed a lenyeg, hanem hogy skalazhato percek alatt fel/le :-) VM-ek ala pl idealis. de persze use-case valogatja, hogy mi kell.
- A hozzászóláshoz be kell jelentkezni
FC targetet egyébként hogy csinálsz?
SCST elvileg valamilyen experimental szinten tud ilyet néhány fajta kártyával, de még sosem jutottam el odáig, hogy ki is próbáljam. Szóval a tapasztalat érdekelne.
---
Régóta vágyok én, az androidok mezonkincsére már!
- A hozzászóláshoz be kell jelentkezni
targetcli?
- A hozzászóláshoz be kell jelentkezni
Ja, hogy a LIO-ba is elkezdtek FC targetet implementálni?! Ez tök jó (insert random rant here about why LIO project was started in the first place, instead of simply merging SCST upstream).
Most már lassan akkor el kell kezdenem ezt a LIO dolgot kipróbálni, mert mindenki ezt nyomatja.
---
Régóta vágyok én, az androidok mezonkincsére már!
- A hozzászóláshoz be kell jelentkezni