Re: закачка сайтов
Tue, 3 Jul 2007 20:43:51 +0300, "Павел Марченко" <bblrlo@gmail.com>:
> Здраствуйте!!
> не подскажите программу для выкачивания содержимого сайта вместе соскриптами
Мне обычно wget хватает, а чтобы ключики не запоминать, обычно вот этот скриптик использую:
http://siteget.googlecode.com/svn/trunk/siteget , который на сайте Джильса Орра нашёл. Вот он:
---
#!/bin/bash
#
# siteget - Use wget to retrieve a website
#
if [ "$#" -ne "1" ]
then
echo "$(basename ${0}) <URL>"
echo ""
echo "Get a website or book on the web using wget. It's a one-liner, but"
echo "it uses a lot of options, so I put it in a script. Takes one option,"
echo "a top-level URL."
exit 1
fi
# --mirror gives infinite recursion, follows links ...
# --convert-links converts links for local viewing
# --no-verbose is a relatively quiet (but not silent) mode
# --no-parent won't traverse up the tree - don't know how this combines with
# "page-requisites," but I hope the latter wins ... (seems to work well)
# --page-requisites get images (inline OR external) for local viewing
# --user-agent sets a user agent string because some sites send empty pages if
# they don't like wget, so I use the string for what I'll be viewing with
#
wget --mirror --convert-links --no-verbose --no-parent
--page-requisites \ --user-agent="Mozilla/5.0 (compatible;
Konqueror/3.0.0/10; Linux)" ${1}
---
По чистому совпадению, сегодня как раз об этом в свой блог написал
(http://sovety.blogspot.com/2007/07/blog-post.html).
Reply to: