[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

wget und Speicherbelastung



Guten Abend zusammen!

Ich wollte gestern per wget einen Teil einer Website mir lokal auf den
Rechner laden. Es handelt sich um 7 Verzeichnisse mit je ca. 280
Dateien. Insgesamt etwa 28 MB. 

$ wget -rc -nH --cut-dirs=6 --max-redirect=0 --no-host-directories $URL

Dabei wurde der Prozess nach einiger Zeit gekillt, weil der Speicher
nicht ausreichte: 3 GB RAM + 3 GB Swap
Als ich dann noch zusätzlich weitere 6 GB Swap aktivierte (also
insgesammt 12 GB "RAM") änderte das nichts. Auch ein ändern auf
--max-redirect=1 brachte nichts (ist zwar nicht dokumentiert, aber 0
setzt ja manchmal sämtliche Limitierung aus)

Wie können nicht mal 30 MB Dateien 12 GB Arbeitsspeicher voll laufen
lassen? 
Ich habe natürlich im Netz gesucht, aber leider _nichts_ dazu gefunden. 

Vielen Dank schon mal für Denkanstöße
Ulrich



-- 
     Zufallssignatur:
     Was ist ein Grenzwert?
     Ein Grenzwert ist "dazwischen".
     Alle Werte darunter sind unbedenklich und alle darüber
     ungefährlich. 

     Dieter Hildebrandt


Reply to: