Sok zip file (150G) tárolása ha lehet verziózva

Sziasztok,

A helyzetet a következő:
Van kb 150Gb teszt input data amit a nightly CI futás használ.
Zip fájlok, bennük képek és számítási kalkulációk.
A zip fájlok átlagos mérete 80-100Mb között mozog.
Évente kb 50 Gb-tal fog növekedni a szükséges hely a beérkező új .zip-ek miatt.
Jelenleg Windows File Share-n vannak.
Naponta kb 2x van "kiolvasás" tehát cca 300Gb network transfert indukálunk/nap

Keresek:
Egy olyan megoldást amiben ha lehet verzóizva tudom tárolni a zip fájlokat (ha szüksége lenne rá)
Gyorsan elérhető. (Nem hal bele ha listázom a fájlokat és nem gondolkozik tul sokat :-)).

Jelenleg a JFrog Artifactory-t látom befutónak de elég szűkek az ismereteim szóval érdeklődnék kinek milyen tapasztalata, esetleg megoldása van a témára (Talán Big Data háttérrel rendelkező kollégák tudnak valami jó tool-t :-)))

Hozzászólások

aws s3
gcp cloud storage
azure (johetnek a kollegak :D)
(openstack) swift

De barmilyen objectstore megoldas megfelelo lenne a szamodra, ami tud verziozni. Igy pl. igen az Artifactory is vagy a Nexus.

"Van kb 150Gb teszt input data amit a nightly CI futás használ. "

Mit használtok CI-ra?
A fájlokat lokális szeretnétek tárolni, vagy felhőben, esetleg hybrid?

"Nem hal bele ha listázom a fájlokat és nem gondolkozik tul sokat"

Ha ez a zip tartalmának listázását jelenti, már csak a sávszél kímélése miatt is a zip elhelyezésekor TOC-ba írnám a tartalmakat, függetlenül attól, hogy végül milyen archívkezelő lesz a megoldás.

Napi backup hosszú megőrzéssel ha megfelelő esetleg pluszban shadow copy és megfelelően nagyon nagy lemezméret. Vagy NAS+ZFS a példányokra esetleg FresNAS + backblaze.

Javasolt még zip fájlok helyett eredeti formában hagyni és FS szinten tömöríteni és dedupiálni.

Sajnos a témát alkalmazás szinten nem ismerem.