Az a problémám, hogy van egy rakat képem, fotók, amiket menteni kéne úgy, hogy a korábbi verziók is megmaradjanak.
Ez a lépés már a második lenne. Arról a gépről amin matatok készül egy rsync-es mentés, és ezt kellene menteni. A verziózás azért kell, mert ha megsérül egy-két fájl, és azt úgy menti el, akkor hiába van mentés, a hibás verzió lesz lementve.
A képek nagy többségben raw fájlok, ezek normális esetben sose változnak. Ami változik, azok az apró paraméterfájlok.
Az általam kigondolt ideális megoldás az lenne, hogy ha le tudnám menteni a teljes könyvtárat splittelt formában, helyreállító rekordokkal, miegymással egyben(*), azaz a rar tökéletes lenne, ha tudna több verziót tárolni egy-egy fájlról. Ám úgy találtam, hogy nem tud. Az arj se. Pedig emlékszem, hogy csináltam ilyet, igaz az DOS alatt volt anno.
*) így rendszeresen tudnám ellenőrizni az adatok épségét.
- 2595 megtekintés
Hozzászólások
A verziókövetésre használhatnál verziókövetőt pl.: git-et vagy svn-t. Tömörítve tárolja a fájlokat és csak a diffeket menti el verzióváltáskor. Így bármikor bármelyik korábbi verziót előszedheted.
- A hozzászóláshoz be kell jelentkezni
próbáltál mondjuk 50-100GiB fotót bevarázsolni git alá? :) horror, és full random meghal időnként.
- A hozzászóláshoz be kell jelentkezni
Valóban nem próbáltam. Svn-nel már tároltam pár gigát, benne binárisokat is, de azt sem ekkora mennyiségben.
- A hozzászóláshoz be kell jelentkezni
Erre valo a git-annex. ~200Gb zenemet szo nelkul viszi.
--
|8]
- A hozzászóláshoz be kell jelentkezni
Ezen is elmélkedtem. Ami nem tetszik - csak az svn-t ismerem valamennyire -, hogy az új fájlok kezelése nekem kicsit izé.
Minden "mentéskor" futtassak rá egy svn add-ot? Aztán meg egy svn up-ot? Nem tűnik elegánsnak, bár lehet, hogy nincs más megoldás.
Milyen redundanciát tud? Az a gondom, hogy ha az svn repo megsérül (mert ami megsérülhet az meg is sérül), akkor:
- vagy esélyem sincs a sérült fájlok visszaállítására
- vagy az egész svn repo kakukk lesz
A rar -rr -rv kapcsolóival "önjavító" rarokat lehet csinálni, ami nekem szimpatikus megoldás.
- A hozzászóláshoz be kell jelentkezni
Bár most támadt egy ötletem:
- jelenleg 130G-nyi fotót kell mentenem
- ez svn alatt se lesz nagyobb
- 1T-s külső diskre akarok archiválni(*)
- ezen kényelmesen elfér az svn repo és mellette egy mentés a repo-ról
Az archiválás menete:
- svnadmin verify
- ha ok, akkor archiválás, ha nem ok, riasztás
- svnadmin verify (csak a biztonság kedvéért)
- ha ok, akkor az svn repo mentése tetszés szerint, amúgy riasztás
- örömködés
*) Tudom hogy ez bűnös dolog. Ám e mellett van még két mentés, abból az egyik egy hónapra visszamenőlegesen.
- A hozzászóláshoz be kell jelentkezni
"- jelenleg 130G-nyi fotót kell mentenem
- ez svn alatt se lesz nagyobb"
Dehogynem, svn-nel ez helyből 260G-s working copy-t jelent.
- A hozzászóláshoz be kell jelentkezni
Kétszerese lesz az svn repo mérete?
- A hozzászóláshoz be kell jelentkezni
A repó nem, de a munkakörnyezetedben sajnos igen. Ott gyakorlatilag minden fájl kétszer lenne meg.
- A hozzászóláshoz be kell jelentkezni
Áhm... háttőő.. akkor ez kihúzva.
- A hozzászóláshoz be kell jelentkezni
A working copy lesz a kétszerese.
szerk.: lásd: http://svnbook.red-bean.com/en/1.5/svn.developer.insidewc.html
- A hozzászóláshoz be kell jelentkezni
Köszi, megtaláltam őket. A git is tárolja így az "eredeti" fájlokat?
- A hozzászóláshoz be kell jelentkezni
A git úgy működik, hogy ott gyakorlatilag nincs külön repó és working copy. Ha egy mappád verziózva van, akkor van benne egy ".git" mappa a legfelső szinten és az a repó.
Talán így lehetne megoldani (tesztelést igényel, főleg hogy tényleg elbír -e ennyi anyagot a git repó):
Létrehozol egy üres git repót és a .git mappát átrakod a backup vinyóra.
A .git mappát a backup vinyóról belinkeled az archiválandó munkád legfelső könyvtárába.
Innentől úgy működik mint egy .git repó, de a verziózott repó a backup vinyón van a munka fájlok meg egyszeresen a gépen.
Szerk.: kipróbáltam (Win7-n), technikailag működik. Gyakorlatilag ilyen a felépítés:
D:\munkakönyvtár\.git egy mappa link (junction) -> F:\backupkönyvtár\.git mappára, ahol a backupkönyvtár egy frissen létrehozott git repó.
Ennyi. A d:\munkakönyvtár szépen kezelhető git-tel (add, commit stb).
- A hozzászóláshoz be kell jelentkezni
Sőt, még egy stage is van a munkakönyvtár és a repó között (hívják indexnek is).
Amúgy hellyel (is) spórolósabban bánik, mint az svn. Nemrég kezdtem gitezni, eddig bevált.
- A hozzászóláshoz be kell jelentkezni
Hmm, ez érdekes megoldás lenne. Ezen is gondolkodom egy sort, köszi.
- A hozzászóláshoz be kell jelentkezni
Viszont maga az svn repó mérete sokkal gazdaságosabb lesz, mintha csak sima tömörítményeket archiválna verziónként külön fájlba.
- A hozzászóláshoz be kell jelentkezni
Nem hiszem hogy a raw fájlokat annyira nagyon jól tömörítené :( De mindjárt tesztelem.
----
Kb. 10%-nyit tömörített, azaz az eredeti méret 90%-a lett.
- A hozzászóláshoz be kell jelentkezni
Lehet, hogy mégsem a verziókezelők a megoldás a te esetedben (vagy meg kell nézni többet is). Igazából elég hatékonyan tudnak működni helytakarékosság szempontjából is, de nem ez a fő szempont, amiért használják őket. Svn-t használtam 100MB-os zippel (igaz ez alapban tömörített) és nekem az tetszett benne, hogy volt, hogy csak pár fájl változott a zipben és az svn csak egy pár kb-os diffet tárolt el a változásról. A git-ről biztosan tudom, hogy az gzip-peli a tartalmat magában a repóban is.
- A hozzászóláshoz be kell jelentkezni
Nezd meg git-annex -et. Kivaloan alkalmas ilyen celra, ha az ember okosan hasznalja.
--
|8]
- A hozzászóláshoz be kell jelentkezni
Ok, utánaolvastam, megtetszett, gondoltam milyen jó lesz majd svn-ező kollégákat azzal ugratni, hogy én még a zenéket is git-ben tárolom, no lássuk, haskell platform kell neki, uccu neki:
# apt-get install haskell-platform
Reading package lists... Done
Building dependency tree
Reading state information... Done
The following extra packages will be installed:
(... egy képernyőnyi csomagnév ...)
0 upgraded, 54 newly installed, 0 to remove and 0 not upgraded.
Need to get 81.6MB/85.9MB of archives.
After this operation, 473MB of additional disk space will be used.
Do you want to continue [Y/n]?
WTF?! Minek ennek 470+ mega? Minek ennek libgl1-mesa-dev?! Hát én bizony n-t nyomtam ;)
- A hozzászóláshoz be kell jelentkezni
Pusztán passzióból:
apt-get install --no-install-recommends haskell-platform
?
- A hozzászóláshoz be kell jelentkezni
Nem használ. Ez egy metapackage, ami az összes "standard haskell libraries and tools"-t tartalmazó package-et hozza magával, amik közül az egyik a libghc6-opengl-dev ;)
Nekiállhatnék trial-and-error alapon kiválogatni, hogy mi az, mire tényleg szükség van, de ehhez nincs kedvem, most inkább hallgatom a zenét, mint valami geek toollal kezeljem ;)
- A hozzászóláshoz be kell jelentkezni
apt-get install git-annex ;)
(Ill, ha squeeze-en vagy, akkor sources.list-be sides deb-src sor, apt-get build-dep git-annex, es forgatsz egyet; kb ~5 perc alatt megvan, es alig par mega kell neki. A full haskell-platform egy kicsit overkill :)
--
|8]
- A hozzászóláshoz be kell jelentkezni
Azzal kezdtem, de nem volt ilyen csomag ;)
- A hozzászóláshoz be kell jelentkezni
debian, en igy szeretlek...
akarom mondani ezert ruhellem a deb alapu disztrokat, sot ugy altalaban a fuggosegekzelo csomagkezelest.
de leginkabb az idiota csomagolokat akik minden letezo szart beleforditanak a programokba aztan a fel vilagon dependel emiatt.
kedvenc emlekem mikor egy debian szerveren fel akartam rakni az mc-t, erre felrakta az X-tol kezdve a fel vilagot...
A'rpi
- A hozzászóláshoz be kell jelentkezni
Mint írtam is néhány hozzászólással szemben, ez a metapackage, direkt azért van, hogy egy csomó mindentől függjön. Egyébként a fenti esetben nem is a függőségek foglalják a sok helyet, hanem a haskell compiler, ami egymaga megeszik 390MB-ot.
- A hozzászóláshoz be kell jelentkezni
Igen, add, update, commit; valamit valamiért, ezekhez hozzá kell szokni.
Én így elsőre azt nézném meg, hogy jó-e így: git-tel (netán svn-nel) verziózás, ezt lehet másik gépről is; és a repót menteném. A mentést kéne megbízhatóra csinálni. Bár látom, közben más megoldás is körvonalazódik.
svn repóm sérült már meg; csak az érintett 1-2 fájl szállt el, minden más maradt, de lehet, hogy mázlim is volt. De nem erre bíznám a dolgot, hanem a mentésre.
- A hozzászóláshoz be kell jelentkezni
Nem feltétlenül kell add, update, commit ha lehet kényelmesebben is...
/etc/fstab
http://hostname/repo /mnt/svn davfs auto,nosuid,nodev,_netdev,uid=www-data,gid=www-data 0 0
--
maszili
- A hozzászóláshoz be kell jelentkezni
Jól néz ki, köszi!
Ez mikor commitol? Gondolom, nem minden írási műveletnél. Volna egy linked valami doksihoz? Nem találok most összefüggő leírást róla.
- A hozzászóláshoz be kell jelentkezni
rsync --backup --backup-dir ?
--backup-dir `date +%Y%m%d`
pl.
- A hozzászóláshoz be kell jelentkezni
Igen, ez lett volna az egyik. Ám problémás az adatok épségének ellenőrzése. Egy tömörítő mindig(?) számol crc-t, itt nekem kéne megoldanom, hogy észrevegyem, ha egy file hibásan olvasható vissza az archívumban.
- A hozzászóláshoz be kell jelentkezni
Mielőtt nekiállsz rsync-et direktben futtatni, vess egy pillantást az rsnapshot-ra, mert out-of-the-box megold pár dolgot, amit saját magadnak kellene az rsync köré összetákolni. Az ellenőrzőösszeget mondjuk pont nem, de egy
sha1sum -c
hátha megteszi.
- A hozzászóláshoz be kell jelentkezni
man rsync:
-c, --checksum skip based on checksum, not mod-time & size
- A hozzászóláshoz be kell jelentkezni
ez másra van. ettől még nem derül ki, hogy a mentésben lévő fájl néhány bitje változott-e (sérült) a mentési állapothoz képest, amikor visszaállítunk pl.
- A hozzászóláshoz be kell jelentkezni
Mire jó?
színes aláírás
- A hozzászóláshoz be kell jelentkezni
nem dátum és méret alapján nézi meg, hogy egy fájl tartalma változott-e, hanem végig nézi a fájl részeit checksum alapján és azt hasonlítja össze. vagyis biztosabb az eredmény, de jóval lassabb.
- A hozzászóláshoz be kell jelentkezni
[feliratkozás]
- A hozzászóláshoz be kell jelentkezni
+1
---
színes
Hogyha egy üvegfenekű űrhajóval fénysebességgel közlekedünk a kilövés pillanatát látjuk állóképen.
- A hozzászóláshoz be kell jelentkezni
Ez a lépés már a második lenne. Arról a gépről amin matatok készül egy rsync-es mentés, és ezt kellene menteni. A verziózás azért kell, mert ha megsérül egy-két fájl, és azt úgy menti el, akkor hiába van mentés, a hibás verzió lesz lementve.
Már az első mentést is a duplicity-vel csináld az rsync helyett. A mentett oldal tömörített, titkosított, integritásvédett lesz. (A duplicity a gpg-nek tovább tud adni opciókat; például a tömörítés szintje is szabályozható.) A mentés növekményes; a friss növekményt a duplicity a tárolt korábbi szignatúrák (hash-ek) alapján készíti el. Vagyis ha a forrás megsérül, akkor a legutóbbi szignatúrától el fog térni, így a növekményben szerepelni fog, így a régi verzió elérhető marad.
- A hozzászóláshoz be kell jelentkezni
Ezzel két problémám van. Nem tudom ellenőrizni, hogy a duplicity-vel mentett cuccok épek-e (ha minden jól megy, akkor évekig lesz egy helyen, hetente ellenőrizni kéne az adatok integritását), illetve hogy minden inkrementális mentésnél csinál újabb fájlt akkor is, ha nem volt változás. Napi mentéssel (archiválással) számolva bő 300 olyan fájl lenne az archívumban ami felesleges. Bár ezzel még együtt tudnék élni.
Ha jól számoltam, akkor az S3-ba mentés havi 14-20 dodó lenne, ami egy év alatt már meghaladja egy külső disk árát. Ezért aztán kellene valami ellenőrzés.
Illetve van egy harmadik problémám, a duplicity-vel létrehozott fájlokat csak(?) a duplicity-vel lehet olvasni míg egy zip, tar, rar kb. bármi alatt olvasható.
-- Update: benéztem, a verify tényleg azt ellenőrzi amit kell. Szimuláltam is bithibát és frankón észrevette.
A másik két problémával még barátkozom.
- A hozzászóláshoz be kell jelentkezni
Ezt köszi!!! Nem ismertem ezt a szoftvert, de nagyon jó kis cuccnak tűnik így első beleolvasásra.
- A hozzászóláshoz be kell jelentkezni
Hulye kerdes, de zfs?
Eletbe nem hasznaltam, de verziozas, meg nagy fajl kezeles van benne... :)
- A hozzászóláshoz be kell jelentkezni
Jóval kevésbé fontos dolgot se mernék rábízni. Legalábbis a linuxosra. Van egy sparcom valahol, de lehet h az új solarisok el se futnak rajta.... nem beszélve egyéb problémákról.
- A hozzászóláshoz be kell jelentkezni
Én dolgozok egy backup projekten, ami pont ezt tudja. Ugyanis én is paranoiás vagyok, nem csak egy sima duplikátum másolat kell mindenből, hanem meg akarok győződni, hogy a fájlok nem romlanak el, sem a forrásban, sem a backupban. A programom a cél mappában tárolna minden forrás fájlt, bizonyosakat tömörítve, másokat nem, korábbi verziókat is mindenből, plusz a fájl hash-eket is egy indexben. Be lenne állítva, hogy bizonyos fájlok esetén nem normális, ha megváltozik, és akkor szólna, ha mégis.
- A hozzászóláshoz be kell jelentkezni
A duplicity kb. jó lesz, még tákolok köré egy scriptet, és meglátom, hogy.
- A hozzászóláshoz be kell jelentkezni
igen, azt hiszem ez minden backup gyenge pontja, amit írsz. mindegy hogy hogy és mire mentünk, lényeg hogy jó lenne mielőbb megtudni, ha a mentés sérül valahol, vagy minden mentéskor ellenőrzés minél hatékonyabb módon.
- A hozzászóláshoz be kell jelentkezni
arj add chapter?
* Én egy indián vagyok. Minden indián hazudik.
- A hozzászóláshoz be kell jelentkezni
Egyrészt nem tudom mire való. Másrészt napi mentéssel lehet h egy évig se bírja:
man arj:
"Too many chapters (over 250)"
- A hozzászóláshoz be kell jelentkezni
A chapteresen tömörített állományt lehet tovább összefogni - beágyazott verziók.
* Én egy indián vagyok. Minden indián hazudik.
- A hozzászóláshoz be kell jelentkezni
Oké, viszont mik azok a chapter-ek? A fejezet fordítás nekem nem sokat mond, és messze esik az általam várt "verzió"-tól.
Update: áh, végre megtaláltam, értem már. Majdnem az, ami nekem kell. Az egyetlen dolog ami zavar, az a 250-es limit, amin viszont alighanem tudok annyit segíteni,hogy csak akkor mentek, ha a tree megváltozott. Ez átlag hetente van, így majd' öt évig is eltarthat mire elfogynak a chapterek.
Update2: egy kis apróság van ami zavar, mégpedig hogy tesztelésnél csak az utolsó chapter-t teszteli, és hirtelen nem találtam meg, hogy hogyan tudnám az összeset leteszteltetni vele.
- A hozzászóláshoz be kell jelentkezni
Csak emlékezetből mondom! Az arj "fejezetes" tároláskor, az újabb és újabb fejezetekben a változásokat tárolja (legalább is én így használtam).
Egyébként, nem tudom mennyiben, mennyire feladat a tömörítés, arra gondolok, hogy az arj elsődleges feladata a tömörítés, ezek a chapterek amolyan kényelmi szolgáltatások. Ilyen "chapteres" tárolást akár tar -al és rsync -el is létrehozhatsz, a sima tar ráadásul gyorsabb is lehet (persze ez függvénye a méret/CPU sebesség/diszk sebsség -nek).
Ha jól látom a -jb kapcsolót próbáld ki (jb*: select all chapter backup files).
* Én egy indián vagyok. Minden indián hazudik.
- A hozzászóláshoz be kell jelentkezni
Működik. A fura az, hogy azt szerintem próbáltam. Lehet h elbénáztam akkor valamit.
A tömörítés (mértéke) másodlagos, elsősorban az adatok épségét akarom biztosítani.
- A hozzászóláshoz be kell jelentkezni
szvsz a rar tud tobb verziot tarolni. a koltozes miatt most nem tudom megnezni, de a windowsos rar-ban tuttira a backup fulon van olyan hogy aszondja 'keep previous file versions' ; akkor a linuxosban mert ne lenne ?
- A hozzászóláshoz be kell jelentkezni
Hát, a manpage alapján nincs benne.
- A hozzászóláshoz be kell jelentkezni
man rar, és azon belül a "-ver" opció. Mondjuk ez 4-es rar, nem tudom mióta van ilyen opciója. Most kipróbáltam, szépen csinálja :-).
- A hozzászóláshoz be kell jelentkezni
Ennyire szerencsére még nem épültem le :) Nálam a 3.93-as van fent, és az nem tudja (Debian stable), úgyhogy újítok egyet valahonnét.
Update: teszteltem kicsit. Fura a működése. Addig nincs gond, amíg nem használok volume-okat. Viszont amint használni kezdem, az update parancs (u) mintha belezavarodna a fájlnevekbe, felül akarja írni az új volume-ot, ahelyett hogy update-elné.
- A hozzászóláshoz be kell jelentkezni
.
- A hozzászóláshoz be kell jelentkezni
Vetettem. A pillantás alapján túl bonyolult, hogy pl.a duplicity mellett foglalkozzak vele.
- A hozzászóláshoz be kell jelentkezni
rdiff-backup? Pythonban irt cucc, rsync libet használ a háttérben, de csak a diffet menti .gz-ben, tehát akár kézzel is visszamásolható.
Igaz alapban nem verzió, hanem dátum alapú.
- A hozzászóláshoz be kell jelentkezni
Ez se rossz, de a duplicity egyszerűbbnek tűnik. Kicsit fapados a crc ellenőrzése, de ez legyen a legnagyobb baja.
- A hozzászóláshoz be kell jelentkezni
Az rdiff-backup-ot és a duplicity-t ugyanaz a csóka írta (Ben Escoto, legalábbis eredetileg). Én rendszeresen az rdiff-backup-ot használom. Az azonban, ahogy említed, attribútumok alapján keresi a változott file-okat, nem tartalom alapján, illetve a mirror / növekmények integritása nincs védve az alkalmazás szintjén. Ezért ajánlottam a duplicity-t.
- A hozzászóláshoz be kell jelentkezni
- A hozzászóláshoz be kell jelentkezni
elokerult az svn, es a git tobbszor... ha jol tudom, ezek szoveg fileokra lettek kitalalva... nem ?
- A hozzászóláshoz be kell jelentkezni