iscsi over intel 10g ethernet tapasztalatok érdekelnének

Üdv!

Van-e valakinek tapasztalata intel (vagy akármilyen) 10g etherneten keresztül iSCSI-val kapcsolatosan?
Leginkább a sebesség érdekel.

Kicsit bővebben:
Van kettő szerver, az egyik storage, a másik ESXi host. (Különböző HP Proliantok egyébként, új gépek.)

A storage gépben rendes SAS vezérlő van és 4 db 3,5" 15k rpm SAS lemez.
FreeBSD 9-cel hajtjuk, zfs-sel, memória 16GB. (RaidZ konfigurációt használunk egyébként.)
Gyors is mint a k*rvaisten, a szekvenciális és a random műveletek is nagyon gyorsak.

A másik gépben lényegében csak proci van és memória.

Eddig úgy telsztelgettünk, hogy 2 és 3 darab gigabites ethernet kártyával (HP és Intel vegyesen) direktben összekötöttük a két szervert,
s rendesen bekonfigolt multipath iSCSI-vel adtuk az ESXi hostnak a storage-ot.
Az ESXi 5.1-es verzió egyébként, és az esxcli-vel beállítottuk már, hogy 1 IOPS-onként round-robinoljon az iSCSI path-ok között. (Így volt a leggyorsabb, de természetesen többmindent kipróbáltunk.)

A mérések azt mutatták, hogy egy szálon a freebsd-s istgt (erre koncentrálunk főleg, mert FreeBSD kell az éles rendszeren), egyszerűen nem megy 60-65MB/sec fölé átvitelben.
A multipath esetén csak nagyon minimális javulást tapasztaltunk, a 2-3 csatona beállításával nem lett 2-3-szoros a javulás, inkább csak plusz csatornánként kb. +20-30%, s ekkor is inkább az olvasás gyorsult, az írás csak kevésbé, noha szépen látszik, hogy elosztja az interfészek között a forgalmat, de mindegyiket csupán 30-35% körül járatva....

Storage oldalon próbálkoztunk már FreeNAS-sal és Openfiler-rel is, meg Ubuntuval, sőt, NexentaSTOR-ral is, az eredmény nagyjából mindig ugyan ez, tehát a FreeBSD és az istgt hibás működésést kizárnám.
(Margóra, hátha valakinek jól jön: valamivel gyorsabb és reszponzívabb az iscsi, ha a zfs-en egy image fájl van az istgt-nek megadva, mintha egy zvol lenne. Meglepő, de így van. Talán valami el van kefélve a FreeBSD-s zfs-ben a zvol környékén, nem tudom.)

Szóval mivel a multipath tesztek nem hozták a kívánt s elvárt sebességet, az a kérdés merült fel, hogy mi legyen:
- vegyünk-e 2db 4 portos, gigabites intel kártyát a gépekbe és próbálkozzunk a multipath-tal tovább, hátha 4 csatonán már tudja, ami nekünk legalább kell,
- vagy inkább kicsivel drágábban vegyünk 2 db 10g ethernet kártyát, s legalább a multipath-tal nem kell szívni, cserébe talán gyorsabb is lesz, mint 4x1Gbit-en összekötve...

Ezért kérdem, hogy van-e valakinek tapasztalata 10g ethernet kártyákkal, azon belül is esetleg iSCSI-vel, mindezt esetleg FreeBSD istgt és ESXi 5.1 között :) ?
Kicsit félünk, hogy nehogy ez is beakadjon 60-65MB/sec környékére, mert sajnos nincs vele tapasztalatunk.
Viszont gyanús, hogy a tesztkörnyezetben, bármilyen rendszeren, bármilyen konfigurációban sem kerül kihajtásra egyik gigabites interface sem, a multipath esetében sem, félünk, hogy nem leszünk jobban 10gbit kártyákkal, mint 4x1gbit-esekkel multipathban.

Tehát van-e valakinek bármilyen releváns tapasztalata?

Köszi a segítséget előre is!

FRISSÍTVE:
---------

Intel 10ge dual-port NIC-ek lettek, optikai kapcsolattal egymás között, direktbe kötve.
(update: Intel 82599EB 10-Gigabit SFI/SFP+ a kártyák típusa)

Első tapasztalat: b*szott gyors :)

Még semmit sem "tuningoltunk", csak be lettek téve a kártyák, és elindítottuk a rendszert.
iper-fel mérve 6,5-7,3 Gbit/sec között volt a kapcsolat - ezt mondjuk kicsit keveslem, majd utána járunk, de végülis ez is elég, túl sok energiát nem akarunk ezen a ponton az optimalizálásra fordítani.

Ami a fontos: A 400-500 Mb/sec körül tudó raidz tömböt lényegében kb. ezen a sebességen látja a másik oldal is iscsi-n, mindenféle hekkelés és tuning nélkül, default istgt beállításokkal!! A tuning, finomhangolás ennek folytán itt is felesleges jelenleg.

Az esxi-ben futó vm 300 MB/sec körül (250-320 között ingadozik) tud írni/olvasni, ami már bőven megfelel az igényeknek!
Tehát a 10ge stuff bevállt, nem hinném, hogy 1g etherneteket multipatholva könnyen elértük volna ezt.

Ennél tovább azonban sajnos nem jutottunk, mert éppen mielőtt elkezdtük volna az éles storage-t és az éles rendszert összerakni, hogy az éles környezetet is tesztelgessük kicsit, feltűnt, hogy az egyik 15krpm SAS diszk 27 MB/sec-kel ír, viszont szépen olvas 170-180 Mb/sec-kel...
Kicsit gondolkoztunk, hogy mi a hiba, próbálgattuk, rebootoltuk, low-formatot toltunk rá, stb., de semmi, továbbra is maradt a gyors olvasás, s a tetűlassú írás.
Két reboottal később viszont a SAS vezérlő többé már egyáltalán nem látta lemezt, így kijelenthetjük, hogy hosszadalmas haláltusával ugyan, de végül örökre leállította tányérjait, s tette parkolópályára fejeit, hogy végleg az örök bitmezőkre költözhessen...

Cserelemez meg nem lévén kéznél, leálltunk, mert nem maradt elég lemez (4 lemez kéne a raidz tömbünkhöz, nekünk meg csak 3 maradt), s csak a két ünnep között lesz cserelemez... :(

(Apró érdekesség: ezt a projektet - a rengeteg próba- és teszt-igénye miatt, nekünk meg időhiányunk miatt, kb. 3-4 hónapja csináljuk már, persze nem folyamatosan, a vele ténylegesen eltöltött napokat kb. 1 hétre becsülöm. Viszont a hardverek nagy része, ideértve a Hitachi 15krpm SAS lemezeket, 3-4 hónaposak, s csak a tesztek idején kaptak eddig lényegi terhelést, egyébként üresben pörögtek többnyire - ha egyáltalán be volt kapcsolva a tesztkörnyezet, amikor az "IT-munkatársam" nem volt itt.
Ami meglepő, és "érdekes": ez idő alatt ez a második lemez, ami megpukkan! Az első rögtön azon a napon, a kibontás után pár órával megnyekkent, amikor megérkezett, pár kör dd if=/dev/zero of=/dev/daX ... után.
4 db drága, enterspájz SAS lemezből 2 meghal pár hónapon belül - ez is azt erősíti meg bennem, hogy ma már minden szar, és előbb a backup környezet lesz kialakítva, hogy amint az éles rendszer elkészül, már legyen hova backupolnia az első perctől...)

Viszont a 10ge NIC-ek hozták az elvártat, elégedettek vagyunk!
A sebesség több, mint megfelelő, multipath-tal nem kell pöcsölni, s ár/érték-arányban is jók vagyunk. :)

Hozzászólások

csak tipp: es ha a 4 nic-et osszehuzzatok LACP bonding/teaming/etherchannel-lel, es azon van a iscsi?
(bar mivel itt 1 csatlakozas van, lehet mindig csak 1 kartyat fog hasznalni. FIXME)

--
A vegtelen ciklus is vegeter egyszer, csak kelloen eros hardver kell hozza!

koszi szepen, ezt is ismerem, de kifejezetten _valos_ tapasztalatokra lennek kivancsi, olyanera, aki hasznal 10g ethernetet iscsi-vel, mert az utobbi idoben, foleg pont ennek a projektnek a kapcsan szamtalanszor futottam bele abba, hogy amit az internetet mindenfele forumokban irnak, ugy ahogy van baromsag.
tehat ezert erdekelnenek a valos tapasztalatok, nem pedig az internet mas zugaiban leirt okossagok, mert azokat olvastam mar en is, es az esetek nagy reszeben nem ugy van a valosagban mint ahogy oda leirta valaki...

amugy amit linkeltel az eleve WAN halozatokrol szol es koze nincs az iscsi-hez, plane nem ket gep direkt 10ge-n valo osszekotesehez....

nezzuk pl. a 4. pontjat:
"Disabling jumbo frames on the WAN facing interface
It is cheaper to resend 1500 bytes occasionally than it is to resend 9000 bytes."

nehezen tudom elkepzelni, hogy ket gep kozott, jo kabellel, kb. fel meteren, annyi packet loss lenne, hogy megerje lemondani a jumbo framerol...
tehat egyaltalan nem relevans az esetunkben.

nagyjabol az en konfigom + h ne huzza fel magat a neten felllelhető 123456765432szaron, csak a sajat kiserletezese fog bevalni.
de a konfig:

Lun 0 Path=/dev/sda2,Type=blockio
InitialR2T No
ImmediateData Yes
MaxRecvDataSegmentLength 262144
MaxXmitDataSegmentLength 262144
MaxBurstLength 262144
FirstBurstLength 262144
MaxOutstandingR2T 2
HeaderDigest None
DataDigest None
Wthreads 32
QueuedCommands 128

koszi, ezeket ismerem, es a freebsd forumban ott is a megoldas kicsit lentebb, hogy miert csak 1 MB/sec-je volt a gyereknek: :)
nalunk ez nem jatszik, jok a kabeleink. :)

"The extremely slow iSCSI was because of a broken network cable. I replaced it and now it runs very good! However I get maximum 50MB/s, the target is far from stressed."

ezen kivul zvol-t hasznal, amit a nyito postban is irtam, lassab, mint egy sima image fajl a zfs-en.

inkabb tenyleg konkretan a _valodi_ 10ge tapasztalatokra lennek kivancsi, freebsd+iscsi keresoszavakra olvastam mar kb. mindent, koszonom szepen. :)

Tippre sok ilyen tapasztalatot itt a hup-on nem fogsz talalni, talan bra jatszadozott ilyen rendszerekkel.

BTW,
* ULE vagy 4BSD schedulert hasznaltok?
* kern.hz ?
* dummynet bele van forgatva kernelbe/be van toltve? Ha igen, akkor egy probat meg nelkule, mivel minden egyes tickre, lefut egy callout az eseteben.
* tx/rx queue-k meretenek novelese? mbuf-fal kapszolatos sysctlelek?
___
info

nezd, nfs-en siman kitolja a gigabitet, afp-n is, iperf-fel is, akar 2-3 interface-n is egyszerre, nincs a tx/rx queue-kal semmi gond, amugy default kernel van, a fine-tune majd ezutan jon.
es mint mondom, mas rendszerekkel, mas konfiguracioban is mindig az a vege, hogy az iscsi egy szal gigabiten tud max. 60MB/sec korul, ami ertheto is, hisz eleg nagy a packet encapsulation pl. egy nfs-hez vagy afp-hez kepest, aztan az is torvenyszeru mukodesnek tudnik, hogy a multipath eseten plusz interfacenkent csak plusz 30% korul ad hozza a sebesseghez, de ezeken mar tenyleg tul vagyunk, azt kellene tudni, hogy a 10ge-n van e valakinek valos tapasztalata, es mi az.
a dontest majd en meghozom, hogy egy szal 10ge kartya, vagy 4x1gbit multipatholva.
erzesre a 10ge jobb lesz nekunk, de valos tapasztalatokra vagyok kivancsi.
ha nincs itt ilyen tapasztalat, nem baj, egy kerdest meger, de amugy privatban kaptam mar 10ge+iscsi-vel kapcsolatos tapasztalatokat, tehat nem remenytelen a helyzet...

Nem konkrét segítség, csak tapasztalat:
Lowcost iscsi (debian tgtd), areca + 10 sata diszk (raid6, 6T), gigabiten húzva 75-80MB/s ESXi alatt (2db esxi független gigabites csatolókon konkurensen tudja ennyivel), tartósan, R/W. Szemmel (esxi store copy to/from), bonnie-val (guest debian) is. (Amivel most szopunk, hogy a sata diszkeken nincs fault led, oszt halódik az egyik... :DDD )

Sajnos nem tudom, hogy freebsd-re van vagy sem de elképzelhető, hogy megoldható freebsd-n is. Vagy ha nem ragaszkodsz freebsd-hez akkor egy minimal iscsi szervert összerakhatsz linuxszal is.

Én linuxon kipróbáltam az istgt-t és siralmas volt a teljesítmény ugyanolyan körülmények esetén összehasonlítva más iscsi megoldásokkal. Azért írtam, hogy ha van lehetőséged akkor próbálj ki más iscsi szervert mert könnyen lehet, hogy sokkal jobb teljesítményt kapsz.

--
maszili

de írtam, hogy ragaszkodok, mert az éles rendszeren az kell, mindössze próbálgattunk más rendszereket is, ha figyelmesen olvasol.

egyébként a linkeket köszönöm, de egyik sem releváns, mert az hagyján, hogy nem freebsd, de köze sincs a 10ge-hez, amiről _valós_ tapasztalatok érdekelnének...

"Én linuxon kipróbáltam az istgt-t és siralmas volt a teljesítmény ugyanolyan körülmények esetén összehasonlítva más iscsi megoldásokkal"
linuxon...

"Azért írtam, hogy ha van lehetőséged akkor próbálj ki más iscsi szervert mert könnyen lehet, hogy sokkal jobb teljesítményt kapsz."
mint írtam, nemcsak hogy más iscsi targetet próbáltunk ki, hanem kompletten különböző rendszereket is.
egyébként ezt sem nagyon értem, hogy jön ide, tényleg 10ge _valós_ tapasztalatokra vagyok kiváncsi, ha van valakinek.

köszi a szándékot
igen, szűk a gigabit, nem véletlen próbálgatjuk a multipath-ot illetve nem véletlen merült fel a 10ge...
de persze nincs kizárva, hogy tök hülyék vagyunk, és csak balfékségből nem tudunk 1 gagibates tyúkbélen legalább 200-300 MB/sec-et elérni, ami kéne, majd mindjárt megguglizom, mit írnak az interneten...

elvileg elérhető a 120M/sec, de ehhez azért feketekakast kell áldozni teliholdnál :) gyakorlatban nfs-sel sikerül elérni a 110 MB/sec-et, minden más ez alatt van.

"Annó mi is néztük a linuxos multipath-t de mivel azzal se lehet elérni hogy 4x1gbites vonalon elérjek 1 kapcsolattal 3gbitet, váltottunk 10GbE-re."
Ezért merült fel a dilemma, hogy most mi legyen: vegyünk-e 2 db 4 portos gigás kártyát, vagy 2 db 10ge kártyát. Tekintve, hogy nem sokkal drágább a 10ge kártya mint a 4x1 portos ge, igazából az dönti el, hogy mekkora sebességet lehet elérni 10ge kártyával, féltem, hogy esetleg avval is beakad-e valahol 60-100 Mb/sec között, mint gigán...

De a releváns tapasztalatok alapján nem lesz gond, úgyhogy a hétvégére itt is vannak a 10gigás kártyák. :)

köszi a segítséget, de nem segítség, mert csak mantrázod, hogy gigabit, meg linux, holott itt nincs linux, nem is akarunk egyáltalán, nem felel meg a céljainknak, csak írtam, hogy avval is teszteltünk, és én 10ge tapasztalatokra vagyok kíváncsi, a gigát kiteszteltük keresztbe-kasul, 2-3 linkig volt lehetőségünk multipathra is, mert több karink nem volt, még az esx-et is megmatattuk mélységében is, tehát ezen túl vagyunk, köszi, a 10ge tapasztalatok miatt nyitottam a topicot.

kthxbye.

(ps. az istgt eredetileg freebsd-s cucc, amiről te beszélsz az ennek a linuxos portolása, és szvsz elég meredek következtést levonni az "eredeti" fbsd istgt-re abból, hogy a ki-tudja-hogyan-összegányolt linuxos portról mit dobott ki a gugli, hogy melyik pistike, milyen kókány vason mit ért el vele...)

Ha már több mint egy héttel ezelőtt lezárt témával kapcsolatban nekifutásból lehülyéztél akkor csak a tisztánlátás miatt:

Konkrétan sehol nem említette a kérdező, hogy az ISTGT megoldáson kívül mást is kipróbáltak volna.
Storage oldalon próbálkoztunk már FreeNAS-sal és Openfiler-rel is, meg Ubuntuval, sőt, NexentaSTOR-ral is, az eredmény nagyjából mindig ugyan ez, tehát a FreeBSD és az istgt hibás működésést kizárnám.
Ebből csak az látszik, hogy más rendszereket de feltehetőleg ISTGT-t teszteltek valószínűleg a következők miatt:
A mérések azt mutatták, hogy egy szálon a freebsd-s istgt (erre koncentrálunk főleg, mert FreeBSD kell az éles rendszeren),

Ezért bátorkodtam javasolni, hogy próbálja ki ISTGT helyett valami mással is mert esetleg az ISTGT lassúsága lehet a szűk keresztmetszet (én azt tapasztaltam hogy az ISTGT lassú) és nem a gigabit és akkor hiába költ százezreket hálózati eszközökre nem lesz gyorsabb. Ha a kérdező kipróbálta mással is mint az ISTGT akkor elég lett volna azt írni a cinikus értetlenkedés helyett.

Ezt így eddig sikerült megértened? Tehát ez lett volna a segítő szándékom.

Szerintem nem nekem van szükségem pszichológusra mert nem én járok kötekedni a HUP-ra hanem Te.

--
maszili

"Ebből csak az látszik, hogy más rendszereket de feltehetőleg ISTGT-t teszteltek valószínűleg a következők miatt:"
Ezt hogy hoztad össze???
Úgy gondoltad, hogy feltettük az említett rendszereket, és a default iscsi helyett belehekkeltük a freebsd-s istgt-t?!?!

"Ezért bátorkodtam javasolni, hogy próbálja ki ISTGT helyett valami mással is mert esetleg az ISTGT lassúsága lehet a szűk keresztmetszet (én azt tapasztaltam hogy az ISTGT lassú) és nem a gigabit és akkor hiába költ százezreket hálózati eszközökre nem lesz gyorsabb. Ha a kérdező kipróbálta mással is mint az ISTGT akkor elég lett volna azt írni a cinikus értetlenkedés helyett."
De a gigabit SEM elég, nem véletlen próbálkozunk multipath-tal, hányszor mondjam már. Miért nézel hülyének?

Egyébként megjöttek az eszközök, tesztelgetünk, de a fenti konfiggal alsó hangon tolunk 300 MB/sec körül 10ge ethernet kártyák között, optikával összekötve, freebsd-vel, istgt-vel.

"Ezt így eddig sikerült megértened? Tehát ez lett volna a segítő szándékom."
10ge tapasztalatokat kértem. Mennyit nálad a 10ge iscsi sebesség??

Úgy gondoltad, hogy feltettük az említett rendszereket, és a default iscsi helyett belehekkeltük a freebsd-s istgt-t?!?!
Úgy gondoltam, hogy a kipróbált rendszereken egyébként is elérhető (nem kell hekkelni semmit) ISTGT-t próbáltátok. Sehol nem volt írva, hogy mást is próbáltatok. Ha igen akkor a gőgöt félretéve elég lett volna annyit írni, hogy kipróbáltátok XY megoldásal is. Ilyen egyszerű.

De a gigabit SEM elég, nem véletlen próbálkozunk multipath-tal, hányszor mondjam már. Miért nézel hülyének?
Szerintem én sehol nem írtam azt, hogy hülye vagy.

Egyébként megjöttek az eszközök, tesztelgetünk, de a fenti konfiggal alsó hangon tolunk 300 MB/sec körül 10ge ethernet kártyák között, optikával összekötve, freebsd-vel, istgt-vel.
Akkor öröm és boldogság.

10ge tapasztalatokat kértem. Mennyit nálad a 10ge iscsi sebesség??
Az én igényeimet jelenleg kielégíti a gigabites 100-110MByte/s, igen ennyit tud varázslat nélkül is.

Részemről a téma lezárva!

--
maszili

Sub.

zfsbuild.com - itt inkabb InfiniBandet hasznalnak, de viszonylag valos tapasztalatok vannak, hatha jol jon, erdemes atfutni.

Hasít mint a szél :>
Nincsen vele különösebb gond, 6 db diskből álló raid10 tömb sebessége olyan 400MB/s volt. Xenserveres VPS en keresztül.

Fedora 17, Thinkpad x61s

Én azt gondolom, hogy a 4 db 3,5" 15k rpm SAS a szűk keresztmetszet.
Egyszerűen kevés a lemez. Lehet, hogy 8 lassabb lemez túltesz véletlen írás / olvasásban a 4 gyorson. Érdemes lenne megfontolni a lemezek számának növelését a hálózat gyorsítása helyett / mellett.
szerintem

jaj istenem.
bocs, de láttál már ilyesmit közelről?
és érted, hogy miről van szó?
szerinted 4db 15k rpm SAS lemez tényleg lassú?? szerinted tényleg azok miatt tud az iscsi annyit, amennyit?

és megvan, hogy _valós_ 10ge iscsi tapasztalatokra vagyok kíváncsi, azért nyitottam a topicot?

tippre aúgy szerinted milyen sebességeket tud 4 15rpm SAS lemezből összerakott raid tömb? mostmár kíváncsi vagyok, mit tippelsz...

"RaidZ konfigurációt használunk egyébként"
"tippre aúgy szerinted milyen sebességeket tud 4 15rpm SAS lemezből összerakott raid tömb? mostmár kíváncsi vagyok, mit tippelsz..."

Ez ezt jelenti, hogy pontosan 1 db sas diszk teljesítményét kapod. https://blogs.oracle.com/roch/entry/when_to_and_not_to

Ez tisztán random olvasási IO esetén, kb. 200IOPS, 8k-s átlag blokkmérettel 1,5Mb/sec.
Ez a létező legrosszabb eset. Ennél azért te is jobbat mértél. A tényleges értékeket a storage szervered memóriája és a working set-ed (a ténylegesen aktív adatmennyiség), valamint az írási/olvasási IO aránya befolyásolja.

Elvileg az 1Gbit iSCSI-n kb 100-120MB/sec körüli átvitelt lehet reálisan elérni, jumbo frame esetén. (El lehet, tapasztalat, fekete kakas sem kellett.) 60-65MB elég kevés 1Gbit-en is.
Ennyit szekvenciális IO esetén ki tudsz szedni abból a RaidZ tömbből. Randomot már aligha.

Próbáld ki raid10-el is.

"Ez ezt jelenti, hogy pontosan 1 db sas diszk teljesítményét kapod. https://blogs.oracle.com/roch/entry/when_to_and_not_to"
huh. ezt kifejtenéd bővebben, hogy hogy jutottál erre a következtetésre?

a 100-120 MB/sec gbit iscsi-n való eléréséhez mágia kell, nem általános, személy szerint még nem is láttam, csak hallottam róla hogy a szomszédnak mesélte valaki aki látta egy fórumban, de ha a fenti konfigurációban elmondod (freebsd + esxi), hogy hogyan kell, fizetek egy sört.
amúgy nem elég nekünk ez.

nem próbálom ki raid10-zel, mert nem az kell.

köszönöm a hasznos tapasztalatot a 10ge iscsi-ről... :)

". ezt kifejtenéd bővebben, hogy hogy jutottál erre a következtetésre?"

Ami írást linkeltem, de idepostolom a lényeget:

" A N-way RAID-Z
group achieves it's protection by spreading a ZFS block onto the N
underlying devices. "

"an N-disk RAID-Z group will
behave as a single device in terms of delivered random input
IOPS. Thus a 10-disk group of devices each capable of 200-IOPS, will
globally act as a 200-IOPS capable RAID-Z group"

Mivel van 16GB memóriád, és a ZFS erőteljesen használja is, ezért az IO reordering, és IO merging végzi a dolgát, a 200IOPS-nál többet látsz.

Ha gondolod teszteld ki egy 48GB-s tesztfájlon random io-val (pl. iozone program) és meglátod mennyi a raid tömböd nyers teljesítménye.

Ettől függetlenül nem kétlem, hogy szüksgéd van a 10Gbit adta lehetőségekre, csak feleslegesen szopatod magad RaidZ-vel, ha tényleg kell a diszkteljesítmény.

"100-120 MB/sec gbit iscsi-n való eléréséhez mágia kell"

Xenservereket használok, azon bármikor szívesen megmutatom. Mondjuk annak meg a multipath implementációja sux...

csak egy tipp:
HBA-t használni erre a célra?
mondjuk vmi kukázott infiniband,
esetleg SATA/SAS target módban? elvileg van rá lehetőség.

infinibandon gondolkoztam, de mégsem akarok kukázott cuccot tenni bele.
1-2-3 gbit ethernetet multipatholt iscsi meg kevés, a 4x1gbit ethernet lártya meg majdnem annyi, mint egy 10gbit-es.
SAS target módban nem játszik, egyrészt nem értünk hozzá, másrészt nem publikus dolog miatt semmiképp sem játsszik.

Kicsit off:
http://en.wikipedia.org/wiki/ATA_over_Ethernet -sok benchmark szerint 9K jumbo framekkel ez gyorsabb, mint az iscsi, es jobban ki is hasznalja a tobb halokartyat. (Sajat meres meg nincs, de talan jovore lesz :))

Amit nem lehet megirni assemblyben, azt nem lehet megirni.

Esxi 5.0 backup megoldásra NFS-t használok GIGA NIC<->NIC kapcsolattal. async opcióval simán hozza a 100-110MB/s stabilan a hostokon (cp). A backup storage egy debian 64bit/mdadm RAID6/LVM2/XFS COMBO a vas (corei3/SMICRO szerver deszka/SATA HDDs 1.5T). Storage funkcióban, minimális a szerepe egy Debian6 VM para driverekkel kb azt hozza amit írtál 60Mb/sec a dd -vel az írás/olvasás. Szerintem ezt tudja max a GIGA NIC/BLOCK ökoszisztéma. A VM -en belül para driverek ide oda 30-40% az I/O veszteség (NIC,BLOCK) ESXi-nél a host-hoz képest. Valszeg van olyan finomhangolás ami ezt a veszteséget minimalizálja. Elmennék 10G NIC irányba a veszteséggel együtt a fizikai réteg még így is gyorsabb.

Komolyan gondoltam. Vannak ezek a prémium kategóriába pozícionált termék típusok, amit elvileg azért venne az ember sokszoros áron, hogy ne a sóherség miatt vesszenek oda az adatai. Aztán ugyanúgy feldobja a pacskert egy marék vinyó ebből is, mint a normálból.
Veszel csillióért egy enterspájz storage-ot és megrendeled bele a vinyókat. Telerakják egy sorozattal. Aztán hiába viseli el a rendszer, hogy a 24 HDD-ből elromoljon akár 3 is egyszerre - ha széria hibás a sorozat, akkor 5-6 is ki fog esni egymás után. Volt erre nem egy példa az elmúlt években (konkrétumok nélkül).

"Jegyezze fel a vádhoz - utasította Metcalf őrnagy a tizedest, aki tudott gyorsírni. - Tiszteletlenül beszélt a feljebbvalójával, amikor nem pofázott közbe."

köszi!
akkor már csak az érdekelne, ha megéri-e switchet venni, vagy a dualportos kártyákból gyűrűt
építve (nyilván 4nél több gép esetén, mert addig egyszerűbb talán "keresztbe" összekötni a gépeket) elegendő kapacitás nyerhető-e ki

Magyarázat:
2 storage és 2 virtuális gépeket futtató vas esetén
Store1-Virt1-Store2
Store1-Virt2-Store2

Ez ugye megoldható 4db dualportos kártyával.
A gyűrűnek meg volna egy olyan hátránya, hogy "egyirányú" a spanningtree miatt.

ps: nem olcsóbb megoldás (refurbished) infiniband eszközöket használni? ha jól látom, akkor a "régebbi" (10-20G-t támogató) switchek már egész olcsók (párszáz USD/EUR) és a kártyák is hasonló kategóriában (100-200 USD/EUR) vannak. mind pci-X mind pciE

switch ügyben passz.
infinibandon én is gondolkoztam, de inkább maradtunk az új eszközöknél, meg az infinibanddal több kérdés is felmerül, pl. az esxi hogy támogatja, lehet-e rajta keresztül iscsi-zni, stb.
úgyhogy maradt a 10ge ethernet.
ha kipróbálod az infiniband-ot, akkor számolj be róla feltétlen, mert érdekelne engem is...
egyébként a 10ge NIC-jeink végül 110 nettó/darab árban álltak meg, nem vagyok meggyőződve, hogy infiniband cuccokat ennél lényegesebben olcsóbban kaptunk volna, s akkor még ott a kérdőjel, hogy hogy is működik, mert én még csak az internetetn olvastam róla, de még csak nem is ismerek olyat, aki látott már közelről... :)

Ize, 110e ért single portos kártyát kaptál? (bocs, nem emlexek, h irtál-e pontos típust)
Infinband: jó forrásból simán 200eur/db áron lenne a 2portos infiniband kártya ( mint írtam, pciX és pciE is)
A switchet ebay-en néztem, 500eur körül volt több is.
Elvileg van "gyári" IPoverInfiniBand csomag - talán hackelés nélkül megúszható a dolog.
Az architekturának nem olvastam utàna jobban, de talán p2p megy az eszközök közt az átvitel. Ha több slave-et akarok egy( vagy több) masterre akkor kell a switch gondolom.