Nagy fajlok tomoritese

Fórumok

Hi,

valamikor regebben lattam itt egy cikket (talan pont trey irta es tesztelte), amiben valamilyen talan akkor ujnak szamito technologiaval nagy meretu fajlokat jobban lehetett tomoriteni (vesztesegmentesen termeszetesen). Azt a cikket keresem, illetve barmilyen olyan eszkozt, amire ez igaz (linux alatt).

Koszi.

Hozzászólások

hogy érted? nagyobb mint valami határ (2-4GB)? szinte az összes tömörítő képes rá, gzip is be és kitömöríti, de a fájlméretet ha kitömörítés nélkül nézzük akkor csak modulo 4 (v 2) GBot mutat belőle, de ettől még működik, a többi pl bzip, 7zp, pedig talán mind tökéletesen

Több terrás csupa 0-át tartalmazó fájlt szerintem bármivel kicsire tömörítesz. Az már elég nagy. :D

Modern algoritmusok képesek nagy fileokat jól tömöríteni (pl. az LZMA akár 4Gb-os szótárméretet is kezel).

Továbbá rémlik olyan preprocesszor ami a kisebb ablakméretet használó tömörítőknek előfeldolgozza az adatot, de hirtelen nem találok rá linket. (Mindenesetre ezek költség/nyereség/elterjedtség/megbízhatóság stb.. tradeoff-ja nem hiszem hogy túlzottan előnyös...)

előnyösség:
ha tar előtt sorba rendezed a fájlokat akkor ugye lokálisan nem építi újra állandóan a szótárat, azaz jobban tömörít, de ha (azon túl hogy nem akarod/tudod sorba rendezni) nincs egyféle ilyen redundancia (tehát van három típusú fájl ami egymásra hasonlít de más dolgokban) akkor ez már kevés

tehát tar szerű, azaz nagyon vegyes* tartalmú nagy fájlt lehet értelme, pl archiválni.. csak arról nem szabad megfeledkezni hogy a mellékelt kitömörítő program ne (ugyanúgy) legyen tömörítve :)

*: még csak nem is olyan mint amit itt tesztelgettek: http://hup.hu/node/9275 hanem még vegyesebb :)