Következő lenne a történet:
Van egy Dlink iSCSI SAN, 8 db gigabit porttal. Valamint egy xenserver (XS), amiben szintén több gigbit portos hálókártya van.
Jelenleg 1 gép van rákötve amivel, azt szeretném elérni, hogy a SAN felé több legyen a forgalom mint 1gbit.
Fizikai kiépítés:
A XS-ben jelenleg 1db 4 portos intel kártya van, ebből 2 port egy gigabites switchhez csatlakozik. A SAN 4 portja is ugyanebbe az sw-be csatlakozik.
A SAN 4 lábán a következő IP-k vannak:
10.200.201.1 meg 201.2 valamint 10.200.202.1 és 2.
Az XS SAN felőli ethernetjén pedig 201.6 vagy 202.6.
Az XS-nek egy 6 diskes raid0 volume van konfigurálva, hogy ne ez legyen a szűk keresztmetszet. Ezen a volume on van a 4 VPS diskje.
A VPS ekben jelenlegi tesztelésre sima dd-t használok. Ezt találtam a leggyorsabbnak :>
Akárhogy csűrtem csavartam, az össz forgalom sose volt több mint 1gbit.
Jelenlegi felállás szerint az XS-nek 2 IP-je van a 2 gigabit porton, így megy a multipath.
Ha a 4 VPS ben elkezdtek inteziv fájlműveletet (tipikusan dd vel olvasok nagy fájlt a /dev/null -ba) akkor az iostat mutatja mind a 4 sdX működik, iptraf szerint meg, hol az egyik hol a másik kártyán megy a forgalom. Tehát nem egyszerre a két kártyán.
Próbáltam az összes bondingot, LACP-t is de hasonló eredmény mindig csak 1Gbit jött ki.
Egyelőre kifutottam az ötletekből. Nem tudom mit ronthatok el, vagy mit hagytam ki a számításból.
- 3143 megtekintés
Hozzászólások
Nagy könnyen lehet, hogy a dlink doboz nem tud gbitnél többet kiadni magából. Az a tippem, hogy a 8gbit port itt inkább a switch kiiktatás miatt került be a dobozba. A VPS-ekkel diszk szinten nagyon nehezen fogod meghajtani a gbitet, mert elég nagy az overheadje ilyen téren a xennek.
Azt még megpróbálhatod hogy az MTU-t az interfészeken 9000-re állítod, mert jó eséllyel szereti a jumbo frame-et a storage is. A storage-et a dom0-ban mountold fel és nyomjál rá egy bonnie-t. Ez jól megtekeri szekvenciális írással a storage-et (8G-16G-s mérettel nézd) és közben nézd a topot, hogy mennyire pörgeti a cpu-t.
- A hozzászóláshoz be kell jelentkezni
Egyelőre csak ott is dd vel néztem az olvasás felmegy olyan 110MB/sec-re egy bittel se több, szóval ismét csak 1gbit.
Ubuntu 10.04, Thinkpad x61s
- A hozzászóláshoz be kell jelentkezni
A Xen overhead esetén network v disk IO overhead-re gondolsz?
utóbbi esetben megoldás lehet az, hogy nem a dom0 csatolja fel az iSCSI device-t hanem a domU kernelt kéred meg erre?
- A hozzászóláshoz be kell jelentkezni
Disk IO overheadre. A domU-t meg lehet kérni, de elég macerás lehet. Azt még nem sikerült lemérni, hogy mondjuk egy PCI passthrough-val átadott raid vezérlő mennyire hozza-e a "natív" teljesítményt domU-ban, de nagyon érdekelne. :)
- A hozzászóláshoz be kell jelentkezni
nem ismerem a dlink cuccait ilyen teren, de nem lehet, hogy egyaltalan nem oszt el semmi forgalmat, mert IP/MAC bindinget csinal per NIC? lattam mar ilyen csodat...
igaz, irtad, hogy latsz forgalmat a kartyakon kulon-kulon, de attol meg siman lehet per VPS bind.
ha mind a 4rol egyszerre DDzel, akkor mi a linkek terheltsege?
- A hozzászóláshoz be kell jelentkezni
Akkor a XS ben lévő két nic felváltva forgalmaz az iptraf szerint, viszont a sw-en látom, hogy a storage mind a 4 fizikai portján van forgalom.
Viszont az össz forgalom mindig ~1gbit.
Ubiuntu 10.04, Thinkpad x61s
- A hozzászóláshoz be kell jelentkezni
Ez a dolog hasonlít az én kísérletezésemhez http://hup.hu/node/87678
A konklúzió az volt, hogy nem fog többszöröződni a hálózati sebesség.
--
maszili
- A hozzászóláshoz be kell jelentkezni
Szia!
Nem Xen, de azért olvasd el: http://virtualgeek.typepad.com/virtual_geek/2009/01/a-multivendor-post-…
A lényeg kb az, hogy az initiator (maga a Xen) mit tud iSCSI ügyileg, ennek lenne érdemes utánanézni. Egyetlen iSCSI kapcsolat esetén nem várható sebesség többszöröződés.
Üdv,
Attila
- A hozzászóláshoz be kell jelentkezni
Itt több iSCSI kapcsolat van, vagy a multipath nem számít annak ?
Ubuntu 10.04, Thinkpad x61s
- A hozzászóláshoz be kell jelentkezni
A multipath alapvetően nem számít annak (a multipathing másik célja a redundancia, Nálad ez nyilván irreleváns). Ha egy Xen-ed van, egy iSCSI LUN-od, akkor van rá esély, hogy csak egy kapcsolat lesz. Próbáld több LUN-nal, hogy akkor mi történik - hátha (ez a targeten is múlhat, hogy a több LUN-t miként prezentálja).
- A hozzászóláshoz be kell jelentkezni
Igen így, hasít mint a szél. Nincsen valami mód, LACP pl bármi ahol ugyanezt elérem de csak 1 LUN-al ?
Ubuntu 10.04, Thinkpad x61s
- A hozzászóláshoz be kell jelentkezni
Nincs, az LACP működéséből fakad ez a viselkedés.
Javaslom a több apróbb lun kiajánlását, majd azok összefűzését LVM-mel, a későbbi életedet is megkönnyíti nagyban... :)
- A hozzászóláshoz be kell jelentkezni
Ha már van egy storage cucca, akkor lehet hogy nem az OS-el kéne LVM-mel füzögetni csak legfeljebb partició kezelés szinten. Teljesen jó ha több LUN-on ajánlja ki ugyanazt a multipathd rendesen meg fogja találni.
- A hozzászóláshoz be kell jelentkezni
Gyűlölöm ezt a hozzáállást, hogy egyben ajánljunk ki két TB-os LUN-okat.
Az oprendszer szintjén úgyis használsz vmi LVM-et, ha van egy csöpp eszed, hiszen különben ha kinövöd az eredeti méreted, cseszheted.
Ha viszont LVM-ezel, akkor célszerű azonos méretű diszkekből felépítened az egészet, és hagyni az LVM réteget, hogy egyenletesen szétkenje az adatot "mind térben, mind időben".
Az, hogy mekkora LUN-okat érdemes kiajánlani és összefogni, két dologtól függ nagy mértékben: a storage szempontjából mi az optimum, és a jövőbeni növekményeket mekkora inkrementumokban képzeled el célszerűen.
- A hozzászóláshoz be kell jelentkezni
ácsi, azért azt tegyük hozzá, ha szétesik az lvm, hol és mikor kell javítani, kicsit megbyonyolítja a helyzetet
- A hozzászóláshoz be kell jelentkezni
kicsit... nekem már esett szét lvm stripe-om, ráadásul örökölt és kvázi idegen rendszeren... nem voltam boldog
- A hozzászóláshoz be kell jelentkezni
A xenserver a kiosztott LUN-okra teszi az LVM-et. Ezért van 1 nagy LUN. Persze lehet sok kicsi is csak meg kell mondani melyik VPS melyik LUN-ra tegye. Kicsit macerásabb.
Ezért lett volna jobb, ha 1 LUN-on menne a nagy átvitel.
Azt meg majd meglesem, hogy mit szól az XS ha én most kézzel bebuherálgatok neki ezt azt :>
Ubuntu 10.04, Thinkpad x61s
- A hozzászóláshoz be kell jelentkezni
Azért veszed a külső storage-et hogy raid-ezzen neked boldogan és NE kelljen OS szinten ezzel foglalkozni. Kenegesse a storage a cuccokat, azért van. A normálisakon eleve úgy indul a dolog, hogy létrehozol egy tömböt, majd azokra logikai kötetet. Talán még másik vasra átmigrálni is egyszerűbb ha így van konfigolva.
A VPS-ezésnél tény hogy simán 40-50G-s vagy kisebb particiók kellenek és ezt célszerű LVM-el létrehozni akár a XenServer módján vagy a sima Xen-nel.
- A hozzászóláshoz be kell jelentkezni
Arra én nem vennék mérget, hogy az élet így könnyebb lesz :-), bár nyilván attól is függ, hogy mennyi az annyi és mekkora az akkora.
Én spec amiatt is várom a vSphere 5.0 u1-et, hogy ezeket az aprózódásokat meg lehetne végre szüntetni...
- A hozzászóláshoz be kell jelentkezni