- apostroph3 blogja
- A hozzászóláshoz be kell jelentkezni
- 1122 megtekintés
Hozzászólások
En inkabb az ubuntu defaultok ertelmesseget kerdojeleznem meg, semmint a zfs kepessegeit. Lehetne valami olyan konfig package, ami megoldja, hogy ilyen ertelmu defaultokkal jojjon a zfs konfigja.
--
Blog | @hron84
Üzemeltető macik
- A hozzászóláshoz be kell jelentkezni
+1 azzal a plusz kitétellel, hogy a ZoL nem "a ZFS" en bloc
------------------------
{0} ok boto
boto ?
- A hozzászóláshoz be kell jelentkezni
Jo, hat kontextusaban ertettem. Pillanatnyilag Linuxon ez "a" ZFS.
--
Blog | @hron84
Üzemeltető macik
- A hozzászóláshoz be kell jelentkezni
Jó lenne egy zfs get all. A primarycache=metadata nem jó ötlet, ahogy a blog mutatja. A dedup sem volt szerencsés, az okozhatja még a gondot.
- A hozzászóláshoz be kell jelentkezni
- A hozzászóláshoz be kell jelentkezni
és igaz, de a fickó kis méretű fájlokat scannel, ráadásul közvetlenül a vason indítva a scannt. nekem viszont az nfs, és a zfs összhangján kellet javítani, nagy fájlok esetén.
kis fájlok továbbra is bele fognak férni a cache-kbe. tehát itt a lassulás nem számottevő v nincs is, a nagy fájloknál viszont az átvitel látványosan nő.
és ez a lényeg :)
valamint a blog a clamscan 4k-s korlátjára hivatkozva állapítja meg, hogy sokszor kell újraolvasnia az adatokat. ettől a magas processzorhasználat.
- A hozzászóláshoz be kell jelentkezni
Hogy férne a kis adat a cache-be, ha csak metaadatot cachelsz? Persze amíg kicsi a terhelés, lehet nem nagyon érződik, de mi lesz, ha nem, vagy ha nagy fájlokat olvasni is akarják? Ellenben secondarycache=metadata már értelmes lehetne, gyakorlatilag az egész metaadat elférhetne az SSD-n (és jelenleg is csak az van benne).
Érdemes lehetne egy recordsize=1M is, a nagy fájlokon ez javíthat, meg a metaadat kevesebb helyet foglal. Linuxon még a xattr=sa szokták nagyon ajánlani.
Látom van egy 4GB SLOG is. Kipróbálnám, ugyanaz-e a tapasztalat secondarycache=always és =disabled mellett is. Mekkora ARC van maximum engedélyezve egyébként?
Edit: Átgondolva a primarycache próbálkozásodat az lehet a limit, hogy az ARC nem tud elég metaadatot cachelni. Ezen segíthet az ARC tuningja (de nem kell metadata only!) és a recordsize növelés is. Mindenképpen ezutóbbival kezdeném, 16M-ig mehet asszem.
- A hozzászóláshoz be kell jelentkezni
hát egyrészről az nfs-nek is van, másrészről a másodlagos cache is dolgozok.
ha megcserélem az cache-k beállításait, akkor az olvasási sebesség 80-90 MB körül van 4GB-nál - hálózaton keresztül -
az írási sebesség visszaesik 80-95 MB közé 4GB másolásakor
míg az általam először beállított állapotban az írási sebesség 100-120 MB között ingadozik, míg az olvasási sebesség 85 alá nem esik de nem megy 95 fölé. itt valószínűleg a kliens korlátjába ütközik.
az utóbbi esetben a zcache partició használata sokkal erőteljesebb, bár több területet nem használ, vagy nem mérhető az 1 mp-es frissítéssel, viszont a bandwidth sokkal magasabb.
vagyis mégis csak a primarycache=metadata, secondarycache=all beállítás lehet a jó
ennél sokkal magasabb nyilván nem lesz mert a hálózat, és az nfs korlátjába ütközök.
magán az zfs-en biztos lehet gyorsítani, de ennek hasznát nem igen látom mivel a rendszer, és a rendszeradatok a ssd-n vannak. vagyis olvasni, és írni csak a hálózaton keresztül lehet a zfs partíciót.
- A hozzászóláshoz be kell jelentkezni
xattr=sa gyakorlatilag semmit sem jelent sebesség szempontjából, de lehet hogy csak a átvitel közel maximalis volta miatt.
most még jön a arc tuning, de már nem ma azt hiszem, nem beszélve arról hogy csak az éles rendszeren tudom azt pontosan behangolni..
- A hozzászóláshoz be kell jelentkezni
- A hozzászóláshoz be kell jelentkezni
- A hozzászóláshoz be kell jelentkezni
- A hozzászóláshoz be kell jelentkezni