On 06/14/2010 07:57 PM, Florian Lindner wrote:
um eine website vollständig recursive zu mirroren nutze ich httrack, damit habe ich bereits eineige wiki's offline gezogen um sie in der bahn zu lesen,Hallo, ich will ein ungenutztes Wiki archivieren und verwende dafür wget (Alternativen benutze ich natürlich auch gerne). Irgendwas läuft da aber noch schief: wget --recursive --restrict-file-names=windows --page-requisites --domains xgm.de --html-extension --convert-links --level=20 http://xgm.de/xyz Macht es soweit, jedoch enthalten viele Seiten immer noch Links auf die ursprüngliche Domäne (also http://xgm.de/...) und werden nicht konvertiert. Was stimmt da nicht? Danke, Florian
-- papachaotica -- Marcel Hüttenberger