Hallo,
Ich muß von über 40 Servern (je rund 1 TBytes) ein paar Dutzend GBytes
saugen, nur weis ich nicht wo... ls-lR gibt es leider nicht...
Nun habe ich bereits rund 140 GByte gesaugt und mir sind auch die
Verzeichnisse Bekannt (wget -x ...)
nun habe ich die bereits gesagten Verzeichnis in eine Datei getan
und mit '--exclude-directories=`car exclude` an wget verfüttert
600 kByte waren ein bischen zuviel für wget... und es werden ja
jedesmal mehr.
Nun ist das problem, das ich in "--exclude-directories" jedesmal
den VOLLEN Pfad zum Verzeichnis angeben muß...
Beispiel:
Ich habe ds Verzeichnis "/ein/verzeichniss/schnitzeljagd"
bereits heruntergeladen, dann muß ich es mit
--exclude-directories=/ein/verzeichniss/schnitzeljagd,...
an wget übergeben...
Nächstes Problem:
Das Verzeichnis kann auf einem beliebigen Server sein :-/
...und ich weis nicht wo...
Noch ein Problem:
Das verzeichnis "schnitzeljagt" das erste Verzeichnis kann vier
verschiedenen Nummern (0-3) haben...
Was meine Exclude liste 4 mal länger macht...
Jetzt habe ich versucht, das Verzeichnis "schnitzeljagd" folgend
anzugeben:
--exclude-directories=schnitzeljagd,...
was leider nicht funktioniert... Wenn es funktionieren würde,
wäre die "--exclude-directories=..." nur 28 kByte lang.
Hat jemand eine Idee, wie man das Lösen könnte ?
Kann nur wget und BASH-Script verwenden
Danke
Michelle
--
Linux-User #280138 with the Linux Counter, http://counter.li.org/
Michelle Konzack Apt. 917 ICQ #328449886
50, rue de Soultz MSM LinuxMichi
0033/3/88452356 67100 Strasbourg/France IRC #Debian (irc.icq.com)
Attachment:
signature.pgp
Description: Digital signature