c7k-openfiler-raw: a P420i vezérlő RAID mode-ban, RAID cache bekapcsolva, diszkek egyenként RAID0-ban, majd RAW-ként felcsatolva a virtuális gépnek, az Openfiler valósítja meg a szoftveres RAID6-ot és azt ajánlja ki a többi ESXi-nek. Az iSCSI mapping beállítások: write-thru, blockio. Legjobb eredményei: Read: 241,5 MiB/sec, Write: 38,6 MiB/sec
c7k-openfiler-raw: a P420i vezérlő RAID mode-ban, RAID cache bekapcsolva, diszkek RAID6-ban, majd a RAID6 tömb RAW-ként felcsatolva a virtuális gépnek (az Openfiler nem végez RAID munkát) és azt ajánlja ki a többi ESXi-nek. Az iSCSI mapping beállítások: write-thru, blockio. Legjobb eredményei: Read: 381,9 MiB/sec, Write: 96,9 MiB/sec (a Write volt 99,5 MiB/sec is, de sosem érte el a 100 MiB/sec-et)
Ezzel kijelenthető, hogy a legjobb eredményt akkor lehet ezzel a konfiggal elérni, ha a RAID vezérlő maga végzi a RAID6 funkciót és a RAID tömb RAW módon van kiajánlva az iSCSI szolgáltatást nyújtó virtuális gépnek.
Jöhet a játék az iSCSI paraméterek beállításával!
A tesztek azt mutatták, hogy a blockio adja a legjobb teljesítményt. A fileio write teljesítményben semmit sem hoz, viszont a read mintegy 100 MiB/sec-mal csökkent.
Végül, összehasonlításképpen nézzünk iSCSI nélkül, közvetlenül:
Legjobb eredményei: Read: 609,1 MiB/sec, Write: 565,7 MiB/sec
És összehasonlítva egy FC-s Fujitsu DX80-at (blade kereten kívül) szintén 12 merevlemezzel, szintén RAID6-ban.
Legjobb eredményei: Read: 204,7 MiB/sec, Write: 129,7 MiB/sec
- trey blogja
- A hozzászóláshoz be kell jelentkezni
- 952 megtekintés
Hozzászólások
Ihaj, de pocsék értékek :(
- A hozzászóláshoz be kell jelentkezni
Elég szélesen szór, az biztos. Mennyivel lennél elégedett?
--
trey @ gépház
- A hozzászóláshoz be kell jelentkezni
Homokozónak megfogtam két ProLiant DL380 G7-et, P410i / 512MB FBWC vezérlővel. Ezek ugye rosszabb gépek, mint a Tieid, ráadásul a SATA-t csak 3 Gbps-en hajtják.
Teszteléshez az egyik vason csináltam két tömböt (nem egyidejűleg) feldobtam egy minimál Debian-t SCST iSCSI targettel, a másikon pedig egy ESXi 6.0 U2-t.
- 6 darab HP/Intel DC S3610 800 GB SSD - RAID5
A fizikai host-on mérve:
kb. 860 MB/sec read, 835 MB/sec write, meglehetősen atomstabilan
A diszket iSCSI-val kiadva, VMware alatt RDM-ként felcsatolva, egy Linuxos virtuális gépnek kiadva
kb. 790 MB/sec read, 805 MB/sec write.
- 6 darab HP/Seagate 300 GB 10 kRPM HDD - RAID5
A fizikai host-on mérve:
kb. 535 MB/sec read, 365 MB/sec write
A diszket iSCSI-val kiadva, VMware U2 alatt RDM-ként felcsatolva, egy Linuxos virtuális gépnek kiadva
kb. 445 MB/sec read, 335 MB/sec write.
A két gép között most hirtelen egy-egy Mellanox ConnectX-2 10 gigás kártya van egy Mikrotik SFP direct attach kábellel összekötve.
Ha megszüntetem a diszkeket, mint szűk keresztmetszet, és a /dev/zero-t hozom iSCSI-val, akkor kitömi a 10 gigás linket. (9,7 Gbit/sec)
Az iSCSI-val persze a latency megnő, az IOPS visszaesik. Ma már nincs kedvem azt is megmérni pontosan :)
- A hozzászóláshoz be kell jelentkezni
Eléggé bekorlátozza a blade-ben levő két Virtual Connect, hogy milyen hálózatot tudok csinálni a kereten belül. 10 gigát tudok virtuálisan darabolni, a tesztek alatt 4G volt kiadva az iSCSI felé. Ráadásul a VC nem tud jumbo frame-et és egyéb olyan dolgokat, amikkel még játszani lehetne.
Valószínű, hogy single szerverekkel jobb eredményt tudnék én is elérni.
Mivel végezted a méréseket?
--
trey @ gépház
- A hozzászóláshoz be kell jelentkezni
VC tud jumbo frame-et. Milyen VC tipus ez?
- A hozzászóláshoz be kell jelentkezni
Flex-10
Most utánaolvasva, valóban, alapból be van kapcsolva, nem kell külön konfigolni. Ha még ezzel lehet, hogy futok egy kört.
--
trey @ gépház
- A hozzászóláshoz be kell jelentkezni
Én érdemi, mérhető sebességnövekedést még sosem kaptam a jumbo frame-ektől. Az nagyon jó, hogy csökkenti a csomagszámot, és ezáltal a switch procijának a terhelését... de a mai switchek röhögve elviszik néhány porton a 10 gigát 1500-as mtu mellett is.
- A hozzászóláshoz be kell jelentkezni
Nem csak a fizikai switchekrol van szo, hanem a teljes utvonalrol: VSS/VDS, vmk, vagy a VMen beluli vNIC.
Ha lehet sporolni a CPU-n, akkor miert ne?
Meg regebben mertem egy ESXi SW iSCSI sebesseget es CPU hasznalatat 4x10G linken keresztul. 1500-as MTU-val is sikerult elerni a link speedet, de -ha jol emlekszem- 20%-ra is felment a hoszt CPU hasznalata, mig 9000-es MTUval nehany szazalek korul alakult. Nem mindegy.
iSCSI-t tipikusan L2 halozaton hasznaljuk, de elofordulhat hogy route-olni kell, ami azert a switcheknel is CPU intenzivebb feladat.
- A hozzászóláshoz be kell jelentkezni
A tesztek alatt az iSCSI-t kiajánló virtuális gépben 1 vCPU és 16GB RAM volt. Most odaadom neki az összes erőforrást. Kíváncsi leszek az eredményre.
--
trey @ gépház
- A hozzászóláshoz be kell jelentkezni
FlexPartition eseten a 4G az ugymond garantalt savszel, nemde? Tehat akar a 10G-t is el lehet erni, ha a tobbin nincs kulonosebb forgalom. Vagy a 4G-t azt hard limitnek allitottad be? Akkor viszont a 380MiB/s realis lehet.
- A hozzászóláshoz be kell jelentkezni
Fix volt, de most 8Gb-t kapott fixen. Meglátjuk mennyit számít.
--
trey @ gépház
- A hozzászóláshoz be kell jelentkezni
Lehet, hogy ott lesz a kutya elásva, hogy én IET iSCSI-vel tekerek, te meg SCST-vel. Az utóbbi egyes tesztek szerint jobb lehet (hogy stabilabb-e hosszú távon, azt nem tudom).
Tudnál adni egy SCST iSCSI konfigot amivel teszteltél? Most már kíváncsi lettem.
--
trey @ gépház
- A hozzászóláshoz be kell jelentkezni
Wow, nem is tudtam, hogy az IET-t még maintain-elik valahol... Már kb 8-9 éve is elavult volt, akkoriban szoktunk át SCST-re, Nem elsősorban sebesség, hanem a stabilitási problémái miatt. De gyorsabb is lett.
---
Régóta vágyok én, az androidok mezonkincsére már!
- A hozzászóláshoz be kell jelentkezni
Nekem lenne ilyen játszóterem :-P
- A hozzászóláshoz be kell jelentkezni
Ha mar iSCSI, erdemes megnovelni az MTU-t 9000-re, egy kicsit segithet rajta.
- A hozzászóláshoz be kell jelentkezni