Statikus dump dinamikus weblapról URL-ek megőrzésével

 ( junior013 | 2014. február 18., kedd - 16:42 )

Van egy régi weblapom (képgaléria) egy viszonylag elavult, lassú és erőforrásigényes dinamikus motorral (gallery2), ami már nem frissül, tulajdonképpen az aktív használatának vége, de a jelenlegi tartalmát szeretném megőrizni a "nagy online archívumban" az utókor számára. (ki tudja hova, hány weblapra vannak belinkelve különböző képek, aloldalak)

Szeretnék csinálni az egész publikusan elérhető tartalomról egy statikus dump-ot, ami lehetőleg apache rewrite-okkal megőrzi az eredeti - néha változókkal és paraméterekkel teletűzdelt - URL struktúrát, de file-szinten feloldja az esetleges duplikációkat, hogy minél kevesebb tárolandó adat maradjon.

Ki hogyan állna ennek neki? Vannak rá célprogramok? - magam nem szívesen írnék, maximum bash scripteket.

Hozzászólás megjelenítési lehetőségek

A választott hozzászólás megjelenítési mód a „Beállítás” gombbal rögzíthető.

http://www.httrack.com/

Be lehet allitani, hogy a linkeket ne bantsa, meg azt is, hogy igen :)
Hasznos joszag, mar google altal kuldott furcsa hibak debugolasara is hasznaltam.

Köszi, kezdetnek nem tűnik rossznak, de doksi szerint úgy tűnik, nem tud mit kezdeni az olyan duplikációkkal, ami valami gyakorlatilag lényegtelen változóval az URL-ben ugyanazt a tartalmat hozza.