Tudna valaki ajánlani egy jól működő alkalmazást deduplikációhoz?
Egy csomó XP-s image-et kellene lementenem, és mivel ezek 98%-ban azonosak, ezért jelentős mennyiségű helyet spórolhatnék meg így.
egyelőre ezeket találtam: dedupe, eXdupe, storebackup
windows alá is jöhet progi és nem feltétlenül kell open source-nak vagy ingyenesnek lennie
Előre is köszi!
- 58705 megtekintés
Hozzászólások
zfs, opendedup, lessfs
- A hozzászóláshoz be kell jelentkezni
Köszi!
Használod esetleg valamelyik rendszeresen?
Mennyire működik/működnek jól ill. megbízhatóan?
- A hozzászóláshoz be kell jelentkezni
Az összes deduplikációs megoldásnak az a baja, hogy blokkokkal dolgoznak, azaz hiába van ugyanaz a fájl mondjuk egy ISO-ban, ha nincs blokkhatárra igazítva, nem lesz deduplikálva.
Anno kísérleteztem azzal, hogy az adatban formátumokat keresek (pld. jpg, mp3 headert, így ha bitfolytonosan vannak tárolva, a hosszukat is rögtön ki tudom nyerni), és azokra igazítva (a hosszukkal) deduplikálok.
Egész jó eredményeket értem el, de aztán elvonták a figyelmem, és nem fejeztem be.
Just bloggin'. :)
--
zsebHUP-ot használok!
- A hozzászóláshoz be kell jelentkezni
Nem az osszesnek, hanem jellemzoen ezeknek.
Pl. email szerverek (Exchange, Zimbra) masik layeren vegzik a deduplikaciot tipikusan.
tompos
- A hozzászóláshoz be kell jelentkezni
hoha! Az exchange ill. a zimbra miota deduplikalnak? Ahogy en hallottam az exchange-bol meg a single instance storage is kikerult.
- A hozzászóláshoz be kell jelentkezni
Meg voltam gyozodve mind2 esetben, h van. De ugy latom, outofbox nincs. Egy kicsit mas van.
Hat mind1:)
A lenyeg, h mukodhet. Mint ahogy akkor pl. te is megoldottad a mail archivalasnal.
tompos
- A hozzászóláshoz be kell jelentkezni
igen, megoldottam. De pl. a legutobbi fsf konferencian kerdeztek is, hogy tud-e bra-fele :-) deduplikaciot, hogy amikor van egy Re: Re: Re: ... Re: thread, amikor bela csak egy szmajlit tesz a vegere/elejere, akkor csak a szmajlit taroljuk el, hiszen a body tobbi resze mar ismert.
A gondom nekem is pont az ezzel, hogy nagyon nem trivialis eldonteni, hogy hol vagod kette a levelet, stb. Nem azt mondom, hogy teljesseggel lehetetlen, de hogy kicsinalja a gepet teljesitmeny szempontbol, az tuti. Ugyhogy hacsak (pl. a google soc kereteben :-)) valaki nem tesz le egy nagyon popec implementaciot, akkor ilyen feature nem lesz a piler-ben...
- A hozzászóláshoz be kell jelentkezni
zimbra regota, ha ugyanaz a level tobb fioknak is megy egyszerre akkor is csak 1x tarolodik le.
nyilvan ha ugyanazt a filet csatolva elkuldik tobbszor azt ez se veszi eszre...
A'rpi
- A hozzászóláshoz be kell jelentkezni
Ebben a topicban fájlrendszer szintű deduplikációról volt szó, ami adatblokkokat lát, és jellemzően nem érti, hogy mi van bennük.
Ennyi erővel a *peget is felhozhattad volna példának, az is deduplikál.
De még az említett szerverek sem jó hasonlatok, mert attachmentre (mime partokra) bontják legfeljebb a leveleket, és azokat tudják "deduplikálni" (SIS-nek, Single Instance Store-nak hívják).
Az Exchange 2010-ből ezt a funkciót egyébként kivágták.
Amiről én beszélek, az pld. egy ISO-ban lévő tar-ban tárolt jpeg-et képes deduplikálni a fájlrendszeren önállóan tárolt jpeg-gel.
--
zsebHUP-ot használok!
- A hozzászóláshoz be kell jelentkezni
Csak arra kivantam ravilagitani, hogy tobbfele szinten is mukodhet.
Pont te irtad, hogy megoldhato mas layer-en is. Tehat nem az osszes megoldasnak az a baja.
A lenyeg, nem feltetlenul erdemes megragadni blokk szinten.
tompos
- A hozzászóláshoz be kell jelentkezni
Én is erre próbáltam rávilágítani (feljebb több értelme van), a kijelentés a fájlrendszer szintű deduplikációra vonatkozott.
- A hozzászóláshoz be kell jelentkezni
Nem annyira gázos a helyzet. Tegyük fel, hogy 4 kB-os blokkonként készít SHA ellenőrzőszámot a deduplikáció. Szerencsénk van ekkor, hiszen például az ext4 és sok más fájlrendszer 4 kB-os egységgel allokál.
Vagy tévedes irányból közelítem?
ISO9660 hézag nélkül összerak vagy 2 kB-os blokkhatárra allokál?
- A hozzászóláshoz be kell jelentkezni
Kérlek vedd észre, hogy a válasz lényegtelen a felvetésem szempontjából (a példa szerencsétlen volt, nem ment át a lényeg, mert önmagában az ISO-ban valóban blokkhatárra (2k) kerülnek a fájlok).
A közelítés tehát jó, <=2k-s blokkmérettel ez megvalósul (2k-nál többel már kis eséllyel), csak én nem erről beszéltem. :)
- A hozzászóláshoz be kell jelentkezni
"Az összes deduplikációs megoldásnak az a baja, hogy blokkokkal dolgoznak, azaz hiába van ugyanaz a fájl mondjuk egy ISO-ban, ha nincs blokkhatárra igazítva, nem lesz deduplikálva."
Ez nem így van, pl. az EMC DataDomain tud változó hosszúságú részeket deduplikálni. Adaptív deduplikációnak hívják a megoldást náluk.
- A hozzászóláshoz be kell jelentkezni
Le is tudod írni a pontos működését, és azt is, hogy az általam írtakat ez hogy oldja meg?
--
zsebHUP-ot használok!
- A hozzászóláshoz be kell jelentkezni
Figy. ha a pontos működés érdekel, akkor keress egy whitepaper-t.
Egyébként meg leírta: változó méretű blokkméreteket használ. (Igazából itt a szegmens lenne a jó szó, mert "bárhol" kezdőthet ill. végzőthet)
- A hozzászóláshoz be kell jelentkezni
A kérdés az, hogy az általam felvetett problémát orvosolja-e.
Azaz ha van pld. egy jpeg-em akármelyik fájlban, akárhol, azt képes-e deduplikálni akármelyik másik fájlban akárhol lévő ugyanolyan jpeggel.
Én azt gondolom, hogy tudom a választ (nem, mert nem ezt a problémát próbálja megoldani), ha szerinted igen, akkor kérlek írd le hogyan. Vagy linkelhetsz wp-t is, amiből ezt egyértelműen ki lehet olvasni.
--
zsebHUP-ot használok!
- A hozzászóláshoz be kell jelentkezni
Képes erre bizonyos korlátozásokkal. Olyasmire szokták használni, hogy nem akarnak szarakodni inkrementális backuppal, hanem tolják rá sorban a full backup image-eket és a storage meg szépen deduplikálja annak ellenére, hogy a mentés nem blokkszintű.
- A hozzászóláshoz be kell jelentkezni
Igen, orvosolja.
- A hozzászóláshoz be kell jelentkezni
http://www.emc.com/corporate/glossary/variable-length-deduplication.htm
Egyébként úgy működik a dolog, hogy betölt a memóriába egy csomó adatot és abban keres blokkméretnél hosszabb ismétlődéseket, ezeket pedig csak egyszer tárolja rendesen, a második alkalomtól meg egy referenciát tárol csak (legrosszabb esetben egy blokkban).
Én is
pisz
e Te
is pi
sze v
esszü
nk ös
sze,
vessz
ünk ö
ssze.
Ha mondjuk ez a szöveged, egy sor reprezentál egy blokkot, akkor a " is pisze " és a " vesszünk össze" stringet lehet második alkalommal megspórolni, helyette egy blokkos referenciát alkalmazni.
- A hozzászóláshoz be kell jelentkezni
A következőt állítottad:
- kiírok a deduplikált storage-ra 100 TB-ot (attól a komplikációtól, hogy ez blokkos (fragmentáció, tail packing stb), vagy valami FS (azaz egy szinttel feljebb lát, pld. NFS, CIFS stb) most tekintsünk el), amelyben ott van egy 362535 bájtos jpeg akárhol (mondjuk egy fájl 998831. bájtjától)
- majd ráírom ugyanezt a jpeget akárhová (mondjuk egy másik fájl 334393. bájtjától)
és az EMC (DD) variable length deduplication megoldása képes ezt deduplikálni.
A hogyan érdekelne.
- A hozzászóláshoz be kell jelentkezni
Anélkül hogy ismerném a megoldást, arra tippelek, hogy a trükk a "context-aware anchor points" környékén van. Azaz ha jpeg header szignatúrát talál, akkor rövid töprengés után onnét kezdi a darabolást.
- A hozzászóláshoz be kell jelentkezni
Ez azért nem túl gyors (tapasztalat, igaz, én szoftverből csináltam :), illetve ha inline, más kérdéseket is felvet...
De továbbra is azt gondolom, hogy ezt nem azt jelenti, hanem pld. azt, hogy a fájlba beszúrásra kerül valahová új tartalom, azt képes felismerni (pld. ha emiatt shiftelődik minden).
--
zsebHUP-ot használok!
- A hozzászóláshoz be kell jelentkezni
TIPP: ha nekem kéne ilyet csinálnom, valahogy ilyen irányba kezdenék kísérletezni (aztán vagy bejön vagy nem).
Először is, szerintem az a követelmény, hogy gyorsan tudjam számolni, akár azon az áron is, hogy sok fals pozitívot ad. Utána már ráér komolyabb módon ellenőrizni, hogy tényleg egyezik-ek. Valószínűleg a fals negatívokban is jelentős kompromisszumokat lehet kötni. Pl nagyon rövid sorozatokat biztosan nem érdemes deduplikálni, mert a helyére beszúrt referencia hosszabb lenne.
Egy olyan hash-t vagy checksumot kell választani, ami könnyen számolható inkrementálisan. Tehát ha egy blokkra már van checksumom, és egy bájtot hozzácsapok a végéhez vagy egy bájtot leveszek az elejéről, akkor gyorsan tudom képezni az új blokk checksumját. A CRC-k pl biztosan ilyenek. Ezután csúszóablakszerűen egy ilyen gördülő checksumot próbálok csinálni. A nemtriviális nehézség ott lesz, hogy hogyan tudom indexelni. Ha elég rövid a checksum, mondjuk pl CRC32, akkor a teljes értékkészletnek megfelelő méretű hash tábla pár GB memóriában már benntartható. Azt a címet kell minden checksum érték mellé odaírni, ahol találat volt. Ami elgondolkodtató, az ütközések kezelése, ha vödrös hash-szerűen minden címet tárolnék, ahol találat volt, nagyon megnőne a helyigény, az eredeti adattal összemérhető lenne, sőt még nagyobb is. Én azt gondolom, hogy elég 1-2 "legjobb" címet tárolni minden checksum értékhez, mégpedig az alapján, hogy a szomszédos blokkok checksumja is egyezett-e -> ugyanis akkor jó eséllyel egy nagy összefüggő adatfolyamba találtunk bele, márpedig pont ezeket akarjuk leginkább megfogni. A rövidebb egyezéseket ez nyilván nem fogja megtalálni, de ez még mindig jó kompromisszum lehet.
De ez persze nyilván nem ilyen egyszerű, ennek a korrekt megoldásából egy doktori tézis biztosan kijönne.
---
Internet Memetikai Tanszék
- A hozzászóláshoz be kell jelentkezni
ennek a korrekt megoldásából egy doktori tézis biztosan kijönne.
2 jo tanacs:
a) ovatosan a hivatkozasokkal
b) mondj kevesebbet, akkor nem tudnak belekotni
:-)
- A hozzászóláshoz be kell jelentkezni
A phd-ről én már letettem, úgyhogy mostanában annyira nem izgat.
Egyszerűen csak elgondolkodtatott ez a probléma ezért leírtam, hogy mi jutott eszembe.
EDIT: egyébként Andrew Tridgell tézise ténylegesen ebből jött ki. :)
A projekt még létezik csak már Con Kolivas tartja karban. Aki esetleg nem ismerné: http://lrzip.kolivas.org/ Kicsit más persze az alkalmazási terület (pl random seekben az lrzip nem hiszem, hogy túl jó lenne, az EMC-nek viszont kell), ezért felteszem az EMC nem így oldja meg. De tanulni nyilván lehet belőle.
---
Internet Memetikai Tanszék
- A hozzászóláshoz be kell jelentkezni
Ez miben tér el egy hatalmas szótárméretű tömörítőtől?
- A hozzászóláshoz be kell jelentkezni
+1 ez nekem is egy (többé-kevésbé) Lempel-Ziv családba tartozó algoritmusnak hangzik.
---
Internet Memetikai Tanszék
- A hozzászóláshoz be kell jelentkezni
Jó, de úgy nem lehetne eladni sok-sok pénzért, hogy itt van egy doboz, ami tud pkzipet csinálni :D
- A hozzászóláshoz be kell jelentkezni
Stacker, DoubleSpace és hasonlók...?
- A hozzászóláshoz be kell jelentkezni
Mi van akkor ha kibontom a WIM-et?
Egészen pontosan minden WIM-et kibontanék, és úgy végezném a deduplikációt.
Ebben az esetben is problémát jelent a shiftelés?
- A hozzászóláshoz be kell jelentkezni
A zfs-t hasznalom, mukodik. Csodat ne varj, bar az is igaz, hogy kozel sem ilyen specifikus helyeken hasznalom, hanem sima backup alatt.
A sok RAM-ot szereti. A legjobb, ha utanaolvasol.
tompos
- A hozzászóláshoz be kell jelentkezni
98,5%-ban azonos WIM image-ekről van szó
ráadásul ki is bontanám a WIM-eket
így azért jelentős eredményeket várhatnék nem?
kb. 60TB adatról van szó amúgy...
- A hozzászóláshoz be kell jelentkezni
Gyorsan ki tudod deriteni.
Ha pl. Ubuntu van a szerverenm felrakod a zfs ppa-t, letehozol egy volume-ot, beallitod a dedup-ot, ramasolsz egy image-et es utana ramasolsz egy masikat.
A a hely nagyreszet meg kell hogy sporolja neked a deduplikacio, igen.
Az eredmenyt ird majd be, pliz.
10x
tompos
ui.: Valoszinuleg a tomoritessel is tudsz vmennyit sporolni.
- A hozzászóláshoz be kell jelentkezni
Feltelepítettem a zfs-t forrásból.
létrehoztam egy fájlrendszert:
zfs create tank/dedup2
ha jól tudom, akkor két féle deduplikáció van (online és offline)
az online ha jól értettem, akkor egyből megcsinálja a fájlok
összehasonlítását és a deduplikációt
az offline utólagos feldolgozást végez
(ha valami baromságot írok javítsatok ki)
jelenleg online státuszban van a pool-om ("zpool list"-el néztem, lehet
hogy ez nem azt jelenti amit az elöbb írtam?)
most mit kellene csinálnom?
egyszerűen másoljak rá egy állományt?
megpróbáltam, de látszólag a fájlok mérete nem lett kisebb, és a
partíció mérete sem
tömörítetlen WIM fájlokat használtam
hol kellene méretkülömbséget látnom?
Lehet hogy valamit elrontottam?
2 db 98%-ban azonos WIM van jelenleg a /tank/dedup2-n
és ezt látom:
root@dedup:~# zpool list
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
tank 93G 2,44G 90,6G 2% 1.01x ONLINE -
root@dedup:~# zfs list
NAME USED AVAIL REFER MOUNTPOINT
tank 2,48G 89,1G 30K /tank
tank/dedup 30K 89,1G 30K /tank
tank/dedup2 2,48G 89,1G 2,48G /tank/dedup2
beállítottam a checksum-ot "on"-ra és a dedup-ot is "on"-ra
mit rontok el, ill. mit kellene még beállítanom?
Lehet hogy csak azért nincs méretkülömbség, mert a WIM-et nem lehet deduplikálni?
- A hozzászóláshoz be kell jelentkezni
A dedup-ot utana kapcsoltad on-ba?
Mit mutat a 'zpool get dedup tank' es a 'zfs get all |grep dedup'?
BTW mi az a wim?
tompos
- A hozzászóláshoz be kell jelentkezni
utána...
root@dedup:~# zpool get dedup tank
NAME PROPERTY VALUE SOURCE
tank dedupratio 1.01x -
root@dedup:~# zfs get all | grep dedup
tank dedup on local
tank/dedup2 type filesystem -
tank/dedup2 creation h jan 7 15:17 2013 -
tank/dedup2 used 2,48G -
tank/dedup2 available 89,1G -
tank/dedup2 referenced 2,48G -
tank/dedup2 compressratio 1.00x -
tank/dedup2 mounted no -
tank/dedup2 quota none default
tank/dedup2 reservation none default
tank/dedup2 recordsize 128K default
tank/dedup2 mountpoint /tank/dedup2 default
tank/dedup2 sharenfs off default
tank/dedup2 checksum on inherited from tank
tank/dedup2 compression off default
tank/dedup2 atime on default
tank/dedup2 devices on default
tank/dedup2 exec on default
tank/dedup2 setuid on default
tank/dedup2 readonly off default
tank/dedup2 zoned off default
tank/dedup2 snapdir hidden default
tank/dedup2 aclinherit restricted default
tank/dedup2 canmount on default
tank/dedup2 xattr on default
tank/dedup2 copies 1 default
tank/dedup2 version 5 -
tank/dedup2 utf8only off -
tank/dedup2 normalization none -
tank/dedup2 casesensitivity sensitive -
tank/dedup2 vscan off default
tank/dedup2 nbmand off default
tank/dedup2 sharesmb off default
tank/dedup2 refquota none default
tank/dedup2 refreservation none default
tank/dedup2 primarycache all default
tank/dedup2 secondarycache all default
tank/dedup2 usedbysnapshots 0 -
tank/dedup2 usedbydataset 2,48G -
tank/dedup2 usedbychildren 0 -
tank/dedup2 usedbyrefreservation 0 -
tank/dedup2 logbias latency default
tank/dedup2 dedup on local
tank/dedup2 mlslabel none default
tank/dedup2 sync standard default
tank/dedup2 refcompressratio 1.00x -
lehet hogy csak a WIM tartalmával kellene próbálkoznom :)
A WIM olyan image mint az ISO, de ezt az M$ találta ki. :)
talán valamivel hatékonyabb lenne a dolog, ha felcsatolnám ezeket az image-eket, és a tartalmukat átmásolnám 1-1 könyvtárba,
és ezeket a könyvtárakat próbálnám deduplikálni
- A hozzászóláshoz be kell jelentkezni
A masolas elott kapcsold be a deduplikaciot. Utolagosan nem fogja megcsinalni.
szerk: mi lett az eredmeny?
tompos
- A hozzászóláshoz be kell jelentkezni
úgy tűnik hogy a WIM-el nem tud mit kezdeni a zfs
más fájlokkal működik a dedup :)
de sebaj, majd kibontom a WIM-eket és úgy tárolom le őket :)
- A hozzászóláshoz be kell jelentkezni
zfs tömöríteni is tud (dedup mellett is)
Egy tesztet megér...
- A hozzászóláshoz be kell jelentkezni
sajnos a tömörítetlen WIM-el sem tud mit kezdeni...
egy az egyben felmásolja... semennyit sem deduplikál belőle
- A hozzászóláshoz be kell jelentkezni
Mi az oka, h wim-et hasznalsz?
tompos
- A hozzászóláshoz be kell jelentkezni
így kapjuk őket, ezt kell tárolnunk
sajnos abba, hogy miért éppen WIM, nincs beleszólásom
- A hozzászóláshoz be kell jelentkezni
Atalakithatod?
Gondolom convertalhato formatum, mint ahogy irtak is pl. a vhd-t.
tompos
- A hozzászóláshoz be kell jelentkezni
belefutottunk egy újabb hibába...
az egy dolog, hogy a WIM tömörítve érkezik, ezt "imagex /export /compress none"-al meg lehet oldani, viszont az imagex /mount hibásan csatolja fel a fájlt
a windows/assembly könyvtár tartalma teljesen szétesik, a windows csak fájlokat lát, Linux alatt látszanak a könyvtárak, de a teljes struktúra szét van esve, és másolni nem lehet (se windows se Linux alatt)
Ennyit a microsoft hivatalos alkalmazásáról (imagex), amit a WIM formátumhoz ajánlanak.
Így most egyelőre a ZFS project lefújva...
Hamarosan tesztelem a Win2012 dedup funkcióját, hogy képes-e elbánni tömörítetlen WIM fájlokkal...
- A hozzászóláshoz be kell jelentkezni
Csináltam egy tesztet 6 kibontott image-el. (WIM-ből "imagex /mount"-al)
Ezekből 3 db C:\ és 3db D:\ meghajtó volt, természetesen az XP a C-n volt, a D-n egy alkalmazás van.
4 image-et úgy sikerült deduplikálnom, hogy a kapott adat mennyisége kisebb lett, mint a fele (4GB -> 1,8GB)
aztán a maradék két image kicsit elrontotta a statisztikát
a végső statisztika 5,59 GB -> 2,53GB (kb. 55%-os helyspórolás)
szerintem ez nagyobb mennyiségnél jelentősen javulna (valószínűleg az 5.-6. image sok egyedi fájlt tartalmazhatott)
- A hozzászóláshoz be kell jelentkezni
Van a wim-ben vmi tomorites, vagy miert nem mukodik azzal?
Biztos jo az, ha szetbontod oket?
t
- A hozzászóláshoz be kell jelentkezni
Az eredeti FS-ből érkező metaadatok egy részét szerintem elbukja a szétszedéssel. Utánaolvasva bizony tömöríti a belepakolt dolgokat, bár a wiki szerint van nem tömörítős módja is.
- A hozzászóláshoz be kell jelentkezni
imagex-el könnyen szét lehet szedni őket, és össze is lehet rakni újra
Egyébként szintén az imagex-el be lehet állítani a tömörítés mértékét is (erősen tömörített, tömörített, vagy nem tömörített formátumra is)
- A hozzászóláshoz be kell jelentkezni
Ha egy WIM imageba fájlba több imaget teszel (hozzáfűzés imagex /append és /verify kapcsolókkal) akkor az általad kivánt deduplikációt maga az imagex elvégzi fájl szinten. Eddig úgy 30 körüli image ami nálam egy WIM fájlban van, nem tudom mi a felső korlát.
Egy cikk róla: http://www.windowsitpro.com/article/windows-power-tools/save-space-with…
A http://support.microsoft.com/kb/935467 linken leírt korlátok miatt nem ajánlja az MS az imagex backupra történő használatát. Ha valakinél ezek a korlátok nem okoznak gondot, akkor a fenti kapcsolókkal egész kényelmes arra is mivel minden fájl egy példányban van meg a WIM fájlban és abból az adott index alatti image állapot gyorsan visszatölthető.
Anno kerestem hasonló funkcionalitású eszközt linuxra, de nem találtam. Akkor egy rsync snapshot backup megoldás volt a legközelebb hozzá (http://www.mikerubel.org/computers/rsync_snapshots/), ha egy filesystem image file-ba készül ami loop deviceként van mountolva.
--
Légy derűs, tégy mindent örömmel!
- A hozzászóláshoz be kell jelentkezni
háát sajnos nekem 60TB-nyi winxp-s WIM image-el kell valamit kezdenem :)
Nem nagyon látok rá más alternatívát...
egy picit parázok attól hogy valamilyen módon sérülhet a deduplikált adathalmaz,
ezért időnként újrakezdem majd a deduplikálást, ill. az összegyűlt adathalmazt kidumpolom és lementem TSM kazira :)
- A hozzászóláshoz be kell jelentkezni
Itt is kerdezem. Miert wim?
t
- A hozzászóláshoz be kell jelentkezni
Csinálj egy tesztet. Mentés előtt több user, acl-ek keresztbe-kasul. mentsd le, csomagold ki, majd próbálj a kicsomagolt kupacból visszaállítást csinálni - először csak adatokat, aztán ha az sikeres (userek, acl-ek, minden klappol), akkor az OS-t is.
Ha bármi nem stimmel, akkor más megoldást kell keresned, mert a mentés arra való, hogy vissza lehessen állítani a mentés készítésekor fennálló állapotot. És ebbe a jogosultságok is beletartoznak, nem csak a fájlok nyers tartalma.
- A hozzászóláshoz be kell jelentkezni
A .vhd jol deduplikalhato. Ha mar kesz a sok WIM, javaslom a WIM2VHD-t.
Es persze a Windows Server 2012-t deduplikaciora!
Udv,
Marci
- A hozzászóláshoz be kell jelentkezni
Ilyen para esetén minden esetben (pl. append, mount) használd az imagex integritás ellenőrzés funkcióját, /check kapcsoló, de ez időigényes.
Bővebben: http://technet.microsoft.com/en-us/library/cc749447%28v=ws.10%29.aspx
--
Légy derűs, tégy mindent örömmel!
- A hozzászóláshoz be kell jelentkezni
Windows 2012 Server-ben van alapból block szintű dedup. Egy kb. 900GB fájlszerveren a megtakarítás 390GB volt. Szóval eléggé hatásos volt.
- A hozzászóláshoz be kell jelentkezni
+1. Az egyik fö javasolt alkalmazási terület az image library.
Üdv,
Marci
A Microsoftnál dolgozom.
- A hozzászóláshoz be kell jelentkezni
teszek majd vele egy próbát, amúgy is kíváncsi vagyok rá, hogy mit kezd a WIM-el a win2012 :)
- A hozzászóláshoz be kell jelentkezni
sub
- A hozzászóláshoz be kell jelentkezni
+
- A hozzászóláshoz be kell jelentkezni
+1
- A hozzászóláshoz be kell jelentkezni
Egy ötlet, de nem ez lesz a megoldás, de hátha gondolatot ébreszt:
a btrfs ben nincs utólagos deduplikálás (hivatalosan), de snapshotot lehet csinálni. Szóval fogsz egy imaget, ami az etalon lesz. Subvolume ba belemásolod. Snapshot, majd rsync --inplace el rásynceled a másodikat, és így tovább. Persze ez csak akkor jó, ha amiről készíted, azzal tényleg sok a közös rész.
- A hozzászóláshoz be kell jelentkezni
Szerintem a 7zip is megér egy próbát.
- A hozzászóláshoz be kell jelentkezni
az imagex hibája miatt végül 7zip-el tömörítettük ki a WIM-eket
- A hozzászóláshoz be kell jelentkezni
A 7zip tud deduplikációt, én a betömörítésre gondoltam a próbát, de ez is valami :-)
- A hozzászóláshoz be kell jelentkezni
Windows Server 2012 alatt leteszteltem a deduplikációt.
Első körben sima NTFS fájlrendszerrel ill. 4KB-os clusterrel 80% fölött járt a helymegtakarítás.
Ebben az esetben 60GB helyet foglalt a tesztadat deduplokálva, ebből 40GB a hivatkozásokból állt (a 4KB-os clusterméret miatt)
Aztán lecsökkentettem a cluster méretét 512bájtra, hogy a hivatkozások mérete csökkenjen
így ha minden jól megy, akkor 92% fölött lesz a helymegtakarítás, azaz kevesebb mint 5TB-ra tömörül a 60TB adat :)
nyilván vannak hátrányai az 512 bájtos clusternek... részben a lassulás, részben a maximális fájlméret csökkenése
(ha jól tudom 2GB-nál nem használhatunk nagyobb fájlt)
viszont ez a két hátrány nekünk nem lényeges igazán
- A hozzászóláshoz be kell jelentkezni
Ez jol hangzik!
Udv,
Marci
- A hozzászóláshoz be kell jelentkezni
szerintem ennél jobban már nem lehet összetömöríteni ezeket az adatokat :)
- A hozzászóláshoz be kell jelentkezni
Mi valtozzott a linux-os megoldashoz kepest?
Nem tomoritetted ki az image-eket?
tompos
- A hozzászóláshoz be kell jelentkezni
Én a ZFS-el is elégedett voltam, bár a szintén 4KB-os clusterméret miatt itt is sok helyet foglaltak a hivatkozások.
Sajnos az EXT3-as partíció minimum 1KB-os clusterrel dolgozik.
Tehát vagy dupla akkora lesz a hivatkozások mérete, vagy meg kell próbálni az NTFS fájlrendszert ZFS-hez is.
Végül azért marad inkább a windows-os megoldás, mert a kollégáim kissé idegenkednek a Linuxtól.
Viszont jövő héten csinálok majd egy összehasonlítást.
Egyrészt arra is kíváncsi vagyok hogy a ZFS hajlandó-e 512bájtos cluster mellett NTFS partícóra deduplikálni.
Ha igen, akkor kb. hasonló eredményeket várok.
Egyébként a tömörítetlen WIM-el sem tudott mit kezdeni a ZFS, de tartok tőle hogy a windows-os dedup sem tud.
Ahogy írtam is már, 7zip-el kicsomagoltuk az image-eket, és azokat másoljuk fel.
Kb. 2x akkora méretű fájlkupacot kapunk a tömörítés után.
A windows-os dedup előnye, hogy a 100-nál többször használt fájlokat 2x tárolja.
Különbség még az is, hogy a ZFS azonnal elvégzi a deduplikációt a másoláskor, a windows-os dedup utólagos feldolgozást csinál.
Már csak annyi hiányzik, hogy ki tudjuk dumpolni a dedupos partíciót. A dumpot pedig mentjük majd TSM-el szalagra.
Ehhez találtam is egy "windd" nevű alkalmazást.
- A hozzászóláshoz be kell jelentkezni
A windows-os dedup előnye, hogy a 100-nál többször használt fájlokat 2x tárolja.
Csak sejtem, hogy miért jó ez neked. ZFS-nek is meg lehet mondani, hogy egy blokkot n-szer tároljon. Link
- A hozzászóláshoz be kell jelentkezni
A kicsomagolt fájlok acl-jei rendben vannak, ha visszatöltöd azokat?
- A hozzászóláshoz be kell jelentkezni
Visszallitasi tesztet is csinaltatok?
Leirod vegre, miert nem jo, ha atkonvertalod az image-eket vmi tomoritetlen formara, mint ahogy azt fent irtak? Engem pl. erdekelne, menyit nyersz a kitoromoritessel azzal szemben, mintha vmilyen deduplikalhato es tomoritetlen image formatummal dolgozol.
tompos
- A hozzászóláshoz be kell jelentkezni
A WIM-ből lehet tömörítetlen WIM-et csinálni imagex-el, de akkor pont akkora lesz a mérete a fájlnak, mint ha kitömöríteném 7zip-el.
Az ACL tényleg sérül, bár ez nekünk valószínűleg nem jelent gondot, mivel az alap jogosultságok azért átmennek dedup után is.
Visszaállítási tesztet még nem csináltunk, de hamarosan az is lesz.
Kipróbáltam, és ez a windows-os dedup tudja deduplikálni a tömörítetlen WIM-et. Sajnos a ZFS nem tudta.
Egy nagyobb tesztet csinálunk majd tömörítetlen WIM fájlokkal is, egyelőre csak 5 image-el teszteltem.
3,42GB -> 1,33GB (41% SavingsRate)
Ez jelentősen fog még javulni. Az 1,3 GB nem olyan rossz szám, mivel az első C és D image mérete 1,1GB-volt, erre küldtem rá még 2db D és egy C image-et.
Ezekből már csak 200MB került tárolásra.
Amint vége a nagyobb tesztnek, írok annak az eredményéről is.
A legutolsó teszt eredménye:
328GB image 7zip-el kitömörítve 600GB-lett
ezt deduplikáltuk... a lefoglalt terület 37,1GB lett.
az eredeti tömörített WIM-ek méretéhez képest 11,3%-os lett a helyfoglalás, a kitömörítés utáni mennyiséghez képest 6,18%
Az arány lehetne jobb is, mivel a 32KB-nál kisebb fájlok nem kerültek deduplikálásra, így sajnos van némi veszteség.
Sajnos a minimumfilesize változót nem lehet 32KB alá állítani.
Tehát ezzel együtt kell hogy éljünk.
- A hozzászóláshoz be kell jelentkezni
"Az ACL tényleg sérül, bár ez nekünk valószínűleg nem jelent gondot" - Azaz ahogy tippeltem, nem tudsz korrekten visszaállítani a mentésből. (információvesztés van a mentés során)
- A hozzászóláshoz be kell jelentkezni
Valószínűleg ez a probléma megoldódik ha tömörítetlen WIM-eket deduplikálunk.
- A hozzászóláshoz be kell jelentkezni
Biztosan, hiszen a WIM-ben van eltárolva a fájlokról az összes metainformáció (timestamp-ek, jogosultságok).
- A hozzászóláshoz be kell jelentkezni
Remélem hogy az imagex sem gyomlálja ki őket :) ha már mountolni nem tud rendesen, akkor szerintem kitelik tőle :)
- A hozzászóláshoz be kell jelentkezni
Kimerito, 10x.
tompos
- A hozzászóláshoz be kell jelentkezni
Tegnap kiexportáltunk imagex-el 545GB image-et, az így kapott WIM-eket ma reggelre sikerült deduplikálni.
545 GB-ot 11GB-on sikerült tárolni. Ami kb. 98%-os helytakarékosságnak felel meg.
A probléma már csak az, hogy nem találok megoldást az online feldolgozásra.
Tud valaki arról, hogy lehet-e online feldolgozás csinálni?
Ha online fel lehetne dolgozni az adatokat, akkor használhatnánk SSD meghajtókat az adatok tárolására.
500MB/s azért mégiscsak 500MB/sec :) tény hogy az 512 bájtos cluster miatt nem lenne olyan gyors.
A másik kérdésem: 512 bájtos clusterméretet használunk, ha jól tudom akkor max 2TB-os partíciót lehet létrehozni ekkora clustermérettel.
Ez még nem gond, 1TB elég nekünk. A maximális fájlméretre van valamilyen kikötés?
Mint ha valahol azt olvastam volna hogy 2GB-nál nem használhatok nagyobb fájlokat.
Sajnos erről nem találtam semmi infót.
- A hozzászóláshoz be kell jelentkezni