Van egy régi weblapom (képgaléria) egy viszonylag elavult, lassú és erőforrásigényes dinamikus motorral (gallery2), ami már nem frissül, tulajdonképpen az aktív használatának vége, de a jelenlegi tartalmát szeretném megőrizni a "nagy online archívumban" az utókor számára. (ki tudja hova, hány weblapra vannak belinkelve különböző képek, aloldalak)
Szeretnék csinálni az egész publikusan elérhető tartalomról egy statikus dump-ot, ami lehetőleg apache rewrite-okkal megőrzi az eredeti - néha változókkal és paraméterekkel teletűzdelt - URL struktúrát, de file-szinten feloldja az esetleges duplikációkat, hogy minél kevesebb tárolandó adat maradjon.
Ki hogyan állna ennek neki? Vannak rá célprogramok? - magam nem szívesen írnék, maximum bash scripteket.
- 2937 megtekintés
Hozzászólások
Be lehet allitani, hogy a linkeket ne bantsa, meg azt is, hogy igen :)
Hasznos joszag, mar google altal kuldott furcsa hibak debugolasara is hasznaltam.
- A hozzászóláshoz be kell jelentkezni
Köszi, kezdetnek nem tűnik rossznak, de doksi szerint úgy tűnik, nem tud mit kezdeni az olyan duplikációkkal, ami valami gyakorlatilag lényegtelen változóval az URL-ben ugyanazt a tartalmat hozza.
- A hozzászóláshoz be kell jelentkezni