- 968 megtekintés
Hozzászólások
Ugyan kibicelek, de...
"signal received: 11"
A 11 szignál a segmentation fault, ilyet jó érzésű program nem csinál. --> mehet a bugreport.
- A hozzászóláshoz be kell jelentkezni
Fene se tudta, azért csak ott van pár custom kernel-modul (OFED driver), meg egyebek, szóval csak a sig11 miatt nem voltam benne biztos , gondoltam megkérdezem, hátha más is belefutott. De amúgy azóta kipróbáltam 5-ös Glusterrel, és ott "jól" megy, szóval reportolom majd.
Btw "jól" megy: nyilván nem várok a ib_send_bw -nél látható értéket (38Gbit), de egyszerűen nem tudok a kétlábú Glusterből 8-12Gbit-nél többet kihozni, egy szintén 40G-n kapcsolódó 3. node-ról. Nagy méretű file-ok szekvenciális írása és olvasása a cél, fio-val ennek megfelelő workloadot generálok. A két gluster node-ban 2-2 db Mellanox van, szóval a frontend (jelenleg benchmark) és a backend forgalom nem bántják egymást.
CPU-ból nem fogy ki, iowait nincs, ram van bőven, és mindkét node-ban van 4db nvme ssd. Fio szerint az átlag latancy egy 500GB-s írás teszt alatt 1 ms alatti. Teszt jelleggel kipróbáltam, hogy berakok 8db-ot egy node-ba, és Gluster nélkül egy sw raid0 tömbbe rendezem őket. Így ugyanazokat a fio méréseket lefuttatva 12-15 GByte/s-t kaptam local írásban és olvasásban is. A fio futtatása közben a másik node-ról indítottam iperf és ib_send_bw teszteket, 35-39Gbit lett az eredmény, tehát azt sem mondanám hogy valahol a pci-e busz környékén van bottleneck.
Tettem még kitérőt ezzel a Gluster nélküli block device-al, pl. kiexportáltam nfs-en, majd iscsi-n. Valamivel jobb lett a helyzet, de nem sokkal. NFS-en el tudtam menni mindenféle tcp stack tweak-ekkel úgy 20Gbps-ig, de sejtésem szerint egy real world tesztnél (pl. file másolásnál) ez se ennyi lett volna (nem néztem még meg).
Szóval a fentiek alapján nem hinném, hogy a Gluster miatt lenne lassú, de kíváncsi lennék rá, hogy akkor mégis mitől, szóval bármilyen ötletet szívesen fogadok.
- A hozzászóláshoz be kell jelentkezni
pedig de.
2x100Gbit es IB-n se tudtam kiszedni belőle az igért kapacitást. Ellenben minnél több volt a node, annál jobb lett a kapott sebesség. Valamint amit kipróbáltam, hogy egy gluster-mount pontra kezdtem írni több nagy fájlt (több szálon).
A szál kb 2-3Gbit -en mozgott, és 10-12 szálig ezt tartotta is (így lett 10x3 vagyis 30Gbps.
6 node, node-onként 8 db 4GB -os SATA-SSD JBOD mode-ban. Igaz mindez dispersed volume-on készült.
Az egész nagy adatbázis mentéséhez készült, ahol is több szálon szerették volna elosztott tárra másolni.
- A hozzászóláshoz be kell jelentkezni
Viszont nálam gluster nélkül is elvérzik, nfs-en és smb-n sem tudtam 8-10Gbit-nél többet kicsikarni, mindezt fio-val, 8-16 szálon mérve (illetve nfs esetén el tudtam jutni 20Gbit-ig, ha úgy tekertem a fio-t, de az elég szintetikus volt).
A több szálat úgy érted, hogy több fizikai kliensről mérted, vagy 1db 100G-s kliensen indítottál több másolást?
Amúgy azzal is tisztában vagyok, hogy a Gluster és a Ceph is akkor mutatja ki a foga fehérjét, ha minél több node-ra van szétterítve az írás/olvasás. Tud valaki esetleg olyan megoldásról, ami két node esetén is képes legalább 20-25Gbps-t kihozni az nvme-kből? A cél valamiféle RAID1 vagy RAID10 szerű működés lenne a 2x4 nvme ssd-vel, hálózaton, és ahogy írtam is: nagy file-okat szeretnék szekvenciálisan írni/olvasni.
- A hozzászóláshoz be kell jelentkezni
Mennyi is a latencyd? Mennyi a readahead? Ezekből elég jól kiszámolható a max. elérhető throughput (readahead * szálak száma / latency az elméletben kihozható max.)
- A hozzászóláshoz be kell jelentkezni
Holnap ránézek, mert most nem érem el, és csak fejből írnék értékeket, amiket ilyen összefüggésben ráadásul nem vizsgáltam (ezért köszi is a tippet).
- A hozzászóláshoz be kell jelentkezni
egy gépről másoltam, de 10 különbözö fájlt írtam. Itt olyanok is beleszámítottak, hogy ki kellett kapcsolni (a 100G-hez) a BIOS nyújtotta összes "intelligens" energiamegtakarítási lehetőséget, a gépet gyakorlatilag max-ra kellett pörgetni.
- A hozzászóláshoz be kell jelentkezni