Nagyon kezdő lehetek még: Egy internetes oldalon található fájl-listát szeretnék fájlba kiírni. Odáig eljutottam, hogy ff-szal lekérem az oldal forrását, greppel kiszűröm a listát tartalmazó sorokat, utána még awkkal kiszedem a fájl-listát, de nem lehetne ezt közvetlenebbül? (Jó, tudom, scripttel, de abban hogyan kérem meg a dögöt, hogy lehúzza az oldalforrást?)
- 793 megtekintés
Hozzászólások
nézd meg a wget-et és annak kapcsolóit
PHPAdmin - Ha a táblázatkezelő már nem elég...
- A hozzászóláshoz be kell jelentkezni
Kiszedi az index.html-t, de html formában, ami finoman szólva is nehezen feldolgozható így... :(
--
Fight / For The Freedom / Fighting With Steel
- A hozzászóláshoz be kell jelentkezni
Na, most elolvastam mit is akarsz:
lynx -dump -listonly -nonumbers $URL
--
|8]
- A hozzászóláshoz be kell jelentkezni
ilyenolyan downloadmanagerek ezt nem tudják?
mintha a d4x, ami a debianban van, tudna ilyet.
- A hozzászóláshoz be kell jelentkezni
wget. De FF-hez is van valami DownloadAllLinks vagy hasonlo addon, ami kb ezt csinalja.
--
|8]
- A hozzászóláshoz be kell jelentkezni