[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: copiare sito intero



On giovedì 28 ottobre 2004, alle 13:26, andrea wrote:
> ciao a tutti,
> vorrei copiare tutte le pagine html di un sito (zwiki.org) che spesso 
> finisce off-line
> ho provato il comando wget -r http://zwiki.org, ma mi trasferisce solo 
> la prima pagina, insieme con un file robots.txt che elenca le pagine che 
> sono state "disallowed" dall'operazione di trasferimento..
> come posso aggirare la cosa?
> thanzzz
> 

Io per fare i mirror uso:

# wget -r -l inf -nr -E -kK -nd <URL>

così ricrea la struttura del sito, convertendo i link per la
navigazione locale e aggiungendo l'estensione .html a tutti i
file navigabili (anche a quegli irritanti *.php).

Se il problema è il file robots.txt, che non ti lascia fare il mirror,
ho un amico che ha modificato wget per bypassare questo file.
Ciao.

Manuel

===================================================================
OTTAVA LEGGE DEL PROGRAMMATORE:
"E' più facile modificare le esigenze in funzione del programma
 che viceversa."
		-- Leggi di Murphy ---



Reply to: