[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: закачка сайтов



Tue, 3 Jul 2007 20:43:51 +0300, "Павел Марченко" <bblrlo@gmail.com>:

> Здраствуйте!!
> не подскажите программу для выкачивания содержимого сайта вместе соскриптами

Мне обычно wget хватает, а чтобы ключики не запоминать, обычно вот этот скриптик использую:
http://siteget.googlecode.com/svn/trunk/siteget , который на сайте Джильса Орра нашёл. Вот он:

---
#!/bin/bash
#
#   siteget - Use wget to retrieve a website
#
if [ "$#" -ne "1" ]
then
   echo "$(basename ${0}) <URL>"
   echo ""
   echo "Get a website or book on the web using wget.  It's a one-liner, but"
   echo "it uses a lot of options, so I put it in a script.  Takes one option,"
   echo "a top-level URL."
   exit 1
fi

# --mirror gives infinite recursion, follows links ...
# --convert-links converts links for local viewing
# --no-verbose is a relatively quiet (but not silent) mode
# --no-parent won't traverse up the tree - don't know how this combines with
#    "page-requisites," but I hope the latter wins ... (seems to work well)
# --page-requisites get images (inline OR external) for local viewing
# --user-agent sets a user agent string because some sites send empty pages if
#    they don't like wget, so I use the string for what I'll be viewing with
#
wget --mirror --convert-links --no-verbose --no-parent
--page-requisites \ --user-agent="Mozilla/5.0 (compatible;
Konqueror/3.0.0/10; Linux)" ${1}
---

По чистому совпадению, сегодня как раз об этом в свой блог написал
(http://sovety.blogspot.com/2007/07/blog-post.html).



Reply to: