( hedermisi | 2013. 01. 04., p – 17:50 )

"sshfs + losetup + cryptsetup + ext3 + rdiff-backup"

Talán hozzá kellett volna tennem, hogy az általam javasolt megoldásnál épp az a lényeg, hogy jó eséllyel cache-elni fogja az initiator a fájlrendszer fontos részeit. Elképzelhető, hogy az általad vázolt kombóban (amit nem teljesen értek amúgy) ez nem jött össze. Minden esetre megerősíthetlek, ha minden egyes alkalommal olvasni kell a metaadatot akkor megette a fene, főleg, hogy a mentőszerver nyilván nem írkál az adatokba, tehát tudjuk, hogy azok úgyse változtak a legutóbbi mentés óta. Innentől kezdve viszont fontos a RAM/mentendő adat arány. Néhány giga mentendő cucc esetén nagyon jól jártál, terabájtoknál meg reménytelen.

Másrészt pedig az ext3-at nem javasoltam. Mostanában méregettek hallgatók nálunk elég sokat, ha jól emlékszem az XFS lett a nyerő kisfájlos esetekben.

Arról viszont valóban lemaradtam, hogy ezt otthoni nettel kéne. Mi 1G/10G esetekben használunk ilyesmit, viszont a telephelyek a kilométerekre vannak egymástól, így itt már beszélhetünk távoli mentésről. 100M-el is van még tapasztalat, tűrhető.