ubuntu server & zfs --> accelR8

Baj van! Ha nagy, több GB méretű fájlt másolok a szerverre, akkor a másolás alatt használhatatlan a fájlkezelő (ubuntu) beszürkül, és a windowsnál is hasonlóan lassú a másolás.

Hozzászólások

En inkabb az ubuntu defaultok ertelmesseget kerdojeleznem meg, semmint a zfs kepessegeit. Lehetne valami olyan konfig package, ami megoldja, hogy ilyen ertelmu defaultokkal jojjon a zfs konfigja.
--
Blog | @hron84
Üzemeltető macik

Jó lenne egy zfs get all. A primarycache=metadata nem jó ötlet, ahogy a blog mutatja. A dedup sem volt szerencsés, az okozhatja még a gondot.

és igaz, de a fickó kis méretű fájlokat scannel, ráadásul közvetlenül a vason indítva a scannt. nekem viszont az nfs, és a zfs összhangján kellet javítani, nagy fájlok esetén.

kis fájlok továbbra is bele fognak férni a cache-kbe. tehát itt a lassulás nem számottevő v nincs is, a nagy fájloknál viszont az átvitel látványosan nő.

és ez a lényeg :)

valamint a blog a clamscan 4k-s korlátjára hivatkozva állapítja meg, hogy sokszor kell újraolvasnia az adatokat. ettől a magas processzorhasználat.

Hogy férne a kis adat a cache-be, ha csak metaadatot cachelsz? Persze amíg kicsi a terhelés, lehet nem nagyon érződik, de mi lesz, ha nem, vagy ha nagy fájlokat olvasni is akarják? Ellenben secondarycache=metadata már értelmes lehetne, gyakorlatilag az egész metaadat elférhetne az SSD-n (és jelenleg is csak az van benne).

Érdemes lehetne egy recordsize=1M is, a nagy fájlokon ez javíthat, meg a metaadat kevesebb helyet foglal. Linuxon még a xattr=sa szokták nagyon ajánlani.

Látom van egy 4GB SLOG is. Kipróbálnám, ugyanaz-e a tapasztalat secondarycache=always és =disabled mellett is. Mekkora ARC van maximum engedélyezve egyébként?

Edit: Átgondolva a primarycache próbálkozásodat az lehet a limit, hogy az ARC nem tud elég metaadatot cachelni. Ezen segíthet az ARC tuningja (de nem kell metadata only!) és a recordsize növelés is. Mindenképpen ezutóbbival kezdeném, 16M-ig mehet asszem.

hát egyrészről az nfs-nek is van, másrészről a másodlagos cache is dolgozok.

ha megcserélem az cache-k beállításait, akkor az olvasási sebesség 80-90 MB körül van 4GB-nál - hálózaton keresztül -
az írási sebesség visszaesik 80-95 MB közé 4GB másolásakor

míg az általam először beállított állapotban az írási sebesség 100-120 MB között ingadozik, míg az olvasási sebesség 85 alá nem esik de nem megy 95 fölé. itt valószínűleg a kliens korlátjába ütközik.

az utóbbi esetben a zcache partició használata sokkal erőteljesebb, bár több területet nem használ, vagy nem mérhető az 1 mp-es frissítéssel, viszont a bandwidth sokkal magasabb.

vagyis mégis csak a primarycache=metadata, secondarycache=all beállítás lehet a jó

ennél sokkal magasabb nyilván nem lesz mert a hálózat, és az nfs korlátjába ütközök.

magán az zfs-en biztos lehet gyorsítani, de ennek hasznát nem igen látom mivel a rendszer, és a rendszeradatok a ssd-n vannak. vagyis olvasni, és írni csak a hálózaton keresztül lehet a zfs partíciót.