Re: copiare sito intero
On Thu, 28 Oct 2004 14:40:15 +0200, andrea wrote:
> ciao a tutti,
> vorrei copiare tutte le pagine html di un sito (zwiki.org) che spesso
> finisce off-line
> ho provato il comando wget -r http://zwiki.org, ma mi trasferisce solo
> la prima pagina, insieme con un file robots.txt che elenca le pagine che
> sono state "disallowed" dall'operazione di trasferimento..
> come posso aggirare la cosa?
penso che wget abbia l'opzione per non rispettare il robots.txt.
altrimenti io di solito uso pavuk per fare il mirror dei siti.
Ciao!
Reply to: