( djsmiley | 2023. 05. 30., k – 16:03 )

Egyébként ha maradunk a storage vonalon, akkor akár ez a megoldás még jó is lenne, ha valamiféle rendezési elv alapján több volume-ra osztanánk a cuccot. Jelenleg a legnagyobb félelmem a 20+ TB és a 30+ millió fájl alatti fájlrendszer meghibásodása. Ha ezt lehet kezelhető szintre vinni (pl. 1 TB-os volumeok), akkor azzal egy hiba esetén gyorsan tud az üzemeltetés reagálni, nem az van h. " - mikor lesz kész?, - mittomén, még vissza van 19TB és 25m fájl".

Kicsit azt az analógiát látom ebben is, mint a raid + pool koncepcióban. Kisebb raid6-okból építünk nagy poolt, mert nem gáz h. 80TB a pool, de a resync idő ne legyen már 3 hét.

Ugyanakkor az h. a storage mennyire szolgálja a céljainkat, az jó kérdés. Hosszabb távon elképzelhető, hogy a fent már leírt "backup" gépet messzebb vinném, ezen a ponton meg akkor vagy storage alapú replikációban gondolkodnék, ami horror árban van, vagy akkor elegánsabb lenne 2 fizikai vas kitömve diszkekkel és ZFS-el replikálódni. Amin akár lehet OpenSearch is, meg akár valami blob store is mint "alkalmazás réteg".