[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

copiare sito intero



ciao a tutti,
vorrei copiare tutte le pagine html di un sito (zwiki.org) che spesso finisce off-line ho provato il comando wget -r http://zwiki.org, ma mi trasferisce solo la prima pagina, insieme con un file robots.txt che elenca le pagine che sono state "disallowed" dall'operazione di trasferimento..
come posso aggirare la cosa?
thanzzz



Reply to: