Hallo, Ich muß von über 40 Servern (je rund 1 TBytes) ein paar Dutzend GBytes saugen, nur weis ich nicht wo... ls-lR gibt es leider nicht... Nun habe ich bereits rund 140 GByte gesaugt und mir sind auch die Verzeichnisse Bekannt (wget -x ...) nun habe ich die bereits gesagten Verzeichnis in eine Datei getan und mit '--exclude-directories=`car exclude` an wget verfüttert 600 kByte waren ein bischen zuviel für wget... und es werden ja jedesmal mehr. Nun ist das problem, das ich in "--exclude-directories" jedesmal den VOLLEN Pfad zum Verzeichnis angeben muß... Beispiel: Ich habe ds Verzeichnis "/ein/verzeichniss/schnitzeljagd" bereits heruntergeladen, dann muß ich es mit --exclude-directories=/ein/verzeichniss/schnitzeljagd,... an wget übergeben... Nächstes Problem: Das Verzeichnis kann auf einem beliebigen Server sein :-/ ...und ich weis nicht wo... Noch ein Problem: Das verzeichnis "schnitzeljagt" das erste Verzeichnis kann vier verschiedenen Nummern (0-3) haben... Was meine Exclude liste 4 mal länger macht... Jetzt habe ich versucht, das Verzeichnis "schnitzeljagd" folgend anzugeben: --exclude-directories=schnitzeljagd,... was leider nicht funktioniert... Wenn es funktionieren würde, wäre die "--exclude-directories=..." nur 28 kByte lang. Hat jemand eine Idee, wie man das Lösen könnte ? Kann nur wget und BASH-Script verwenden Danke Michelle -- Linux-User #280138 with the Linux Counter, http://counter.li.org/ Michelle Konzack Apt. 917 ICQ #328449886 50, rue de Soultz MSM LinuxMichi 0033/3/88452356 67100 Strasbourg/France IRC #Debian (irc.icq.com)
Attachment:
signature.pgp
Description: Digital signature