Re: copiare sito intero
On giovedì 28 ottobre 2004, alle 13:26, andrea wrote:
> ciao a tutti,
> vorrei copiare tutte le pagine html di un sito (zwiki.org) che spesso
> finisce off-line
> ho provato il comando wget -r http://zwiki.org, ma mi trasferisce solo
> la prima pagina, insieme con un file robots.txt che elenca le pagine che
> sono state "disallowed" dall'operazione di trasferimento..
> come posso aggirare la cosa?
> thanzzz
>
Io per fare i mirror uso:
# wget -r -l inf -nr -E -kK -nd <URL>
così ricrea la struttura del sito, convertendo i link per la
navigazione locale e aggiungendo l'estensione .html a tutti i
file navigabili (anche a quegli irritanti *.php).
Se il problema è il file robots.txt, che non ti lascia fare il mirror,
ho un amico che ha modificato wget per bypassare questo file.
Ciao.
Manuel
===================================================================
OTTAVA LEGGE DEL PROGRAMMATORE:
"E' più facile modificare le esigenze in funzione del programma
che viceversa."
-- Leggi di Murphy ---
Reply to: