dateien/verz. von einer webseite laden (wget?)
Moin, ich möchte alle pdf's die auf einer webseite verlinkt sind
herunterladen (Es handelt sich dabei um die Standard Apache
Dateianzeigeseite)
mit wget -r --level=1 -nd --accept=pdf http://meineseite
so klappt es prima, wenn es keine Unterverzeichnisse gibt. (wegen -nd)
Aber mit Unterverzeichnissen gehts irgendwie nicht (Ich hätte gerne nur
den relativen pfad angelegt, nicht den absouluten). Außerdem hätte ich
es gerne universeller, also für alle Dateien, jedoch weis ich nicht,
wie ich die Links "Last modified, Size, ..." unterdrücke.
jemand ne gute Idee?
JT
--
http://www.jtheuer.de
mailto:mail(-)jtheuer.de
gpg-fingerprint: C707 EE9A 5BC1 CA68 95E0 F665 A72F 4885 650A 7F6E
Reply to: