Sziasztok
Időszakosan kis példányszámú fájlokat kell letárolnom automatizálva redundánsan, gazdaságosan, biztonságosan. Adott fájlból több verzió nem kell, viszont a backup hétről-hétre új fájlokkal fog bővülni.
Ezekből időnként automatizálva törölnöm is kell illetve dedikált mappát visszaállítani. Simán lehet, hogy több tucat fájlt 20 évig múlva kell tervezetten visszaállítani.
Gondolatmenetem:
- gazdaságosan: FTP backup
- redundánsan: 3 földrajzilag máshol lévő FTP
- biztonságosan: fájlonként gpg-vel titkosítom a fájlokat, amiből ha törölni kell, név alapján egyértelműen megtalálható, nem kell tar.gz-t megbontani.
Mindezt bash script ütemezetten végzi.
A kérdés, hogy van-e jobb, értelmesebb megoldás? (Felmerült itt duplicity meg encfs cryptált mappája menjen ftp-re, végül ez tűnt legkonzervatívabbnak, mert fontos, hogy 20 év után is vissza lehessen állítani.)
A fő kérdés, mivel gpg-vel így még nem foglalkoztam, nem hibádzik-e semmi a jövőre nézve?
# gpg --full-generate-key
paranccsal generálok egy kulcspárt, ahol jelszónak semmit nem adok meg az automatizálhatóság miatt.
# gpg --output public.pgp --armor --export USERNAME
# gpg --output privat.pgp --armor --export-secret-key USERNAME
parancsokkal exportálom és jól elteszem több biztonságos helyre a kulcsokat tartalékba.
# gpg --encrypt -r USERNAME teszt.txt
# gpg --decrypt -o teszt.txt teszt.txt.gpg
parancsokkal titkosítom a kívánt fájlokat majd lftp-vel feltöltöm az FTP szerverekre. Igény esetén a visszaállítandót visszanyerem a decrypttel.
Szóval ez így rendben van a következő 10-20 évre vagy van benne olyan buktató, amit esetleg nem látok?
Köszönöm!