Helyzet: van 1 csomó (mondjuk 10+) ilyenolyan diszk, random sokéves tartalommal, valszeg zilliárd duplikációval.
Ötlet: írok 1 vmi szkriptet, h sorban bedugdosom a diszkeket egy olyan gépbe, ami az adott fs-t gond nélkül tudja olvasni, végigmászatom a releváns részeken (foldereken), megjegyzek minden FS nyújtotta metaadatot, mintát veszek a fájlokból (hogy hogyan az 1 másik kérdés), elrakom azt is a meta közé. Mondjuk az igazán fontos tartalomról (pl. JPG, DV, MOV, ilyesmi, ami nyilván pont értékes privát tartalomnak tűnik) abból a neki megfelelő eszközzel fájltípus specifikus metaadatot is kiszedünk.
Kérdés: a dolognak multi OS-nek kell lennie, minimum van macOS HPFS-valamivel, meg NTFS is biztos van, meg extN- linux is biztos, szóval kell 1 megoldás, amivel ezt a sok metaadatot egy helyre kotrom.
Megoldás:git-re gondoltam, minden gép, ahol futtatom ezt a xart nyit 1 új branch-t mondjuk, oda lerak 1-M json-t a metaadatokkal, a végén össze lehet fésülni mindent. Így tudna futni a dolog térben és időben is párhuzamosan. Mondjuk 1előre nincs B terv, ha nincs gihub v net, élmégy a áram v bármi egyéb kvázi vis major.
MAJD, ha lesz rendes sztorázs, akkor oda összehúzni mindent 1x majd. Vagy kiszórni az űrbe a sok felesleges zajt. Vagy nemtudom. Rég álmodok már ilyesmiről és nem feltétlenül szépeket :)
A megoldás részhez kapcsolódó vélemények érdekelnének, szívesen veszem a egyéb ötleteket is.