Statikus dump dinamikus weblapról URL-ek megőrzésével

Van egy régi weblapom (képgaléria) egy viszonylag elavult, lassú és erőforrásigényes dinamikus motorral (gallery2), ami már nem frissül, tulajdonképpen az aktív használatának vége, de a jelenlegi tartalmát szeretném megőrizni a "nagy online archívumban" az utókor számára. (ki tudja hova, hány weblapra vannak belinkelve különböző képek, aloldalak)

Szeretnék csinálni az egész publikusan elérhető tartalomról egy statikus dump-ot, ami lehetőleg apache rewrite-okkal megőrzi az eredeti - néha változókkal és paraméterekkel teletűzdelt - URL struktúrát, de file-szinten feloldja az esetleges duplikációkat, hogy minél kevesebb tárolandó adat maradjon.

Ki hogyan állna ennek neki? Vannak rá célprogramok? - magam nem szívesen írnék, maximum bash scripteket.

Hozzászólások

http://www.httrack.com/

Be lehet allitani, hogy a linkeket ne bantsa, meg azt is, hogy igen :)
Hasznos joszag, mar google altal kuldott furcsa hibak debugolasara is hasznaltam.