blog.hu site mentése

Sziasztok!
Egy már nem frissített, elvileg megszűnt, de még élő blog.hu-s blogot szeretnék megőrizni magamnak, lementve a teljes tartalmát diszkre, hogy ha esetleg a tulajdonos törölné az egészet, a rajta lévő hasznos információk meglegyenek. (Nem az én blogom)
Egyelőre a ScrapBook Firefox plugint próbáltam, az lementi az első 3 oldalig, majd nem folytatja (összesen kb. 60 page van a blogban)
htttrack-et próbáltam még, az már a site feltérképezésekor feladja és hibára fut.

Tudtok ajánlani egy használhatóbb szoftvert, amivel meg tudom oldani az oldal mentését?

Hozzászólások

Egy ismerősöm a SiteSucker-re esküszik, de az csak osx és ios alá létezik.
Mondjuk ahogy elnéztem vannak korlátai:

If a link is specified elsewhere in an HTML file, SiteSucker will not see it.

SiteSucker does not scan PDFs, Flash files (swf), Quicktime movie files (mov), or other media files for embedded links.

SiteSucker totally ignores JavaScript. Any link specified within JavaScript will not be seen by SiteSucker and will not be downloaded. (If the Log Warnings option is on in the download settings, SiteSucker will include a warning in the log file for any page that uses JavaScript.)

By default, SiteSucker honors robots.txt exclusions, the Robots META tag, and the X-Robots-Tag HTTP header. Therefore, any directories or pages disallowed by robot exclusions will not be downloaded by SiteSucker. See the SiteSucker manual for more information about robot exclusions.

+ találtam még egy ilyet: http://www.inspyder.com/products/Web2Disk/Download-Complete-Website

wget?

--
"nem tárgyszerűen nézem a dolgot, hanem a vádló szerepéből. Sok bosszúságot okoztak, örülnék ha megbüntetnék őket - tudom gyarló dolog, de hát nem vagyok tökéletes." (BehringerZoltan)

+1, nagyon sok hasznos kapcsolója van

Illetve a command line eszközöknél maradva még a pavuk-ra is érdemes ránézni.

"Jegyezze fel a vádhoz - utasította Metcalf őrnagy a tizedest, aki tudott gyorsírni. - Tiszteletlenül beszélt a feljebbvalójával, amikor nem pofázott közbe."

HTTRack: https://www.httrack.com/ Linuxhoz van webgui, de azt nem tudtam életre kelteni Arch alatt, helyette an Qt-s HTTraQt néven. Letöltések közt megtalálod.
Az egész lapot lementi cakli-pakli, később offline is böngészhető

Sorry későn láttam hogy próbáltad

Ezt írja a logba:
09:19:23 Warning: Found for allplan.blog.hu/
09:19:23 Warning: File has moved from allplan.blog.hu/ to http://daemon.indapass.hu/http/session_request?redirect_to=http%3A%2F%2Fallplan.blog.hu%2F&partner_id=bloghu
09:19:23 Warning: No data seems to have been transferred during this session! : restoring previous one!

A blog.hu megpróbál "beléptetni" és ez az átirányítás bolondítja meg.
- Próbálj a httrackben Googlebot user-agentet beállítani, hátha őt nem irányítják át.
- Próbáld meg hogy a daemon.indapass.hu -t is felveszed a lementendő websiteok közé, így nem áll meg az átirányítástól a httrack.

A bloghu adminfelületéről lehet wordpress kompatibilis kimenetet kapni, talán olyan eszköz kellene, amelyikkel wordpress oldalt is le lehet menteni.
Lehet egyszerűbb lenne írni az oldal tulajának, hogy mentse le neked.
☼☆♫♪♫♪☆☼
AGA@
Fork portal és az egyik logóm :)

"összesen kb. 60 page van a blogban"

Biorobot megoldás, a böngésző: ctrl-s, end gomb, klikk a "következő oldal" linken, megvárod amíg betöltődik a lap, és ezt folytatod amíg van következő oldal.
Ha 5 lapot le tudsz menteni 1 perc alatt (ami bőven reális), akkor az a 60 lap 12 perc nettó munka. Szerintem ennél sokkal több időt töltöttél eddig a kísérletezéssel...

Teleport Proval szokott az ilyesmi menni.

Szerintem:
wget --recursive --retry-connrefused --convert-links --adjust-extension --user-agent="Googlebot/2.1 (+http://www.googlebot.com/bot.html)" --domains=sziluette.blog.hu http://sziluette.blog.hu/

Ertelemszeruen a "sziluette.blog.hu"-t kell kicserelned arra a blogra amit le akarsz menteni.