Re: copiare sito intero
prova httrack.
ciao
andrea wrote:
ciao a tutti,
vorrei copiare tutte le pagine html di un sito (zwiki.org) che spesso
finisce off-line
ho provato il comando wget -r http://zwiki.org, ma mi trasferisce solo
la prima pagina, insieme con un file robots.txt che elenca le pagine che
sono state "disallowed" dall'operazione di trasferimento..
come posso aggirare la cosa?
thanzzz
--
- Riccardo Tortorici -
Linux Registered User #365170
Count yourself @ http://counter.li.org/ !
Proudly Running Debian GNU/Linux "Sid" - Linux Kernel 2.6.8.1
--
HTML email can be dangerous, is not always readable, wastes bandwidth
and is simply not necessary please don't send them to me!
If you don't know what I'm talking about please read this:
http://www.georgedillon.com/web/netiquette.shtml
--
Email.it, the professional e-mail, gratis per te: http://www.email.it/f
Sponsor:
Interessi alti con Conto Arancio. Facile come cliccare qui.
Clicca qui: http://adv.email.it/cgi-bin/foclick.cgi?mid=661&d=28-10
Reply to: