_ RU.LINUX (2:5077/15.22) ___________________________________________ RU.LINUX _
From : Ilja Golstein 2:5020/400 Thu 29 Jan 98 05:10
Subj : Re: Выкачиваем Web сервер
________________________________________________________________________________
From: Ilja Golstein <ilejn@sirena.rinet.ru>
Nil Alexandrov <Nil.Alexandrov@f46.n5015.z2.fidonet.org> wrote:
NA >Hello, All!
NA >Как называется такая программка и где ее взять для того, чтобы выкачать по
NA >протоколу http страничку со всеми картинками и с сылками n уровней ?
NA >Хорошо бы, если после этого все ссылки менялись на местные.
NA >Вроде бы под Windows95 была такая программка, но мне бы под *NIX.
Я пользуюсь webcopy. Это скрипт на perl. Могу дать.
Он не очень эффективен, что может быть важно при повременной оплате
(нет "параллелизации" сессий).
Еще среди packages в debian (это такой linux) есть следующая штука:
wget - utility to retrieve files from the WWW via HTTP and FTP
Wget [formerly known as Geturl] is a freely available network utility to
retrieve files from the World Wide Web
using HTTP and FTP, the two most widely used Internet protocols. It works
non-interactively, thus enabling
work in the background, after having logged off.
The recursive retrieval of HTML pages, as well as FTP sites is supported --
you can use Wget to make mirrors of
archives and home pages, or traverse the web like a WWW robot (Wget
understands /robots.txt).
Подозреваю, что утилит аналогичного назначения бывает не один десяток.
--
С уважением, Илья Гольштейн.
ilejn@sirena.rinet.ru AKA root@sirena.rinet.ru AKA 2:5020/457.18
--- ifmail v.2.10dev * Origin: Comtech-N JSC. (2:5020/400@fidonet)