összes fájl (felderítése) letöltése weblapról

Fórumok

Helló!

A címben a kérdés.
Egy lapon lévő fájlok letöltése igen nehéz,ha pl. 100-200db fájlt kell lehúzni. Pláne ha azok neve pl. 071211_01.djvu,071211_02.djvu....
Bízom benne, hogy van rá alkalmazás, ami ezt megoldja. A hab lenne a tortán, ha csak a címet kellene beírni, és aútómatikusan kezdené a fájlok keresését és letöltését. Ha ez debian csomagban létezik akkor az a csúcs.

Kösz

gabi

Hozzászólások

wget.
==
`Have some wine,' the March Hare said in an encouraging tone.
Alice looked all round the table, but there was nothing on it but tea.

A legfontosabb kapcsolók --limit-rate= és --wait=.
Legyen a --wait=20 ami 20 másodperces szüneteket eredményez a letöltések közt, így nem kerülsz blacklist-re

A --limit-rate=20K pedig azért szükséges, hogy minél kevésbé legyen feltűnő a letöltési kísérleted. (nem mindenki szereti, ha az egész weblapját tükrözöd)

A --no-parent kapcsolóval pedig tutira nem töltesz le semmit ami a megadott könyvtár "felett" van. Ez akkor hasznos, ha egy könyvtár tartalmát akarod lementeni

Példa:
wget --wait=20 --limit-rate=20K -r -p -U Mozilla http://www.website.com/xyz/weblap.html

amúgy: man wget
http://www.cs.huji.ac.il/~bioskill/MAN/wget.html

koszonom a gyors es hasznos valaszt!
(hatalmas csattanas a homlokomon :-D)
regen olvastam a wget-rol csak meg nem hasznaltam, es nem gondoltam ra.
amugy GUI-t is lehet hasznalni hozza(annak info, aki a kerdes miatt olvasta)

a HTTrack-ot is kösz, de hogy jon ide 1 exe?

szoval kösz, a tobbit mar (google es man) megoldom...