[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: copiare sito intero



On Thu, 28 Oct 2004 14:40:15 +0200, andrea wrote:

> ciao a tutti,
> vorrei copiare tutte le pagine html di un sito (zwiki.org) che spesso 
> finisce off-line
> ho provato il comando wget -r http://zwiki.org, ma mi trasferisce solo 
> la prima pagina, insieme con un file robots.txt che elenca le pagine che 
> sono state "disallowed" dall'operazione di trasferimento..
> come posso aggirare la cosa?

penso che wget abbia l'opzione per non rispettare il robots.txt.
altrimenti io di solito uso pavuk per fare il mirror dei siti.

Ciao!



Reply to: