2009-07-28 13:32:02 +0000 2009-07-28 13:32:02 +0000
362
362

如何下载整个网站?

如何下载一个网站的所有页面?

任何平台都可以。

答案 (20)

347
347
347
2009-07-28 13:55:39 +0000

HTTRACK在复制整个网站的内容时,它的作用就像一个冠军一样。这款工具甚至可以抓取需要的内容,让一个网站的活动代码内容离线工作。

这个程序可以做到你所需要的一切,我对它的离线复制能力感到非常惊讶。

282
282
282
2009-07-28 14:05:25 +0000
8
8
8
2009-09-16 22:12:13 +0000

你应该看一下ScrapBook,一个Firefox扩展。它有一个深度捕捉模式.

8
8
8
2009-09-16 21:56:24 +0000

Internet Download Manager](http://www.internetdownloadmanager.com/)有一个网站抓取工具,它有很多选项,让你可以完全下载你想要的任何网站,以你想要的方式下载。你可以设置要下载的页面/文件的大小限制

  1. 您可以设置要访问的分支网站的数量

  2. 您可以改变脚本/弹出/复制的方式

4.您可以指定一个域,只有在该域下,所有符合要求的页面/文件才会被下载

5.链接可以转换为离线链接,以便浏览

6.您有模板,可以为您选择上述设置

7.软件不是免费的,但是,如果您需要,请使用评估版。

7
7
7
2009-09-17 11:42:49 +0000
  • itsucks**** - 这就是程序的名字!
5
5
5
2009-09-17 02:08:03 +0000

我喜欢离线资源管理器。 虽然是个共享软件,但它很好用,很好用。

5
5
5
2009-07-28 14:03:11 +0000

我来说说浏览器使用的在线缓冲…..

通常情况下,大多数浏览器都会使用浏览缓存,将你从网站上下载的文件保留一段时间,这样你就不用反复下载静态的图片和内容。在某些情况下,这可以加快一些速度。一般来说,大多数浏览器的缓存都有一个固定的大小限制,当达到这个限制时,它就会删除缓存中最老的文件。这为他们省去了每次网络上有人访问这些网站的麻烦。这可以大大节省向外部网站向ISP重复请求的数量。

4
4
4
2010-02-26 01:26:42 +0000
4
4
4
2009-07-28 23:23:28 +0000

我已经很多年没做过这个了,但还是有一些实用的工具。你不妨试试Web Snake。我相信我多年前就用过了。当我看到你的问题时,我马上就记住了这个名字。

我同意Stecy的观点。请不要敲打他们的网站。非常糟糕。

3
3
3
2009-10-14 11:41:36 +0000

试试BackStreet Browser.

是一款免费的、功能强大的离线浏览器。它是一款高速、多线程的网站下载和浏览程序。BackStreet浏览器可以同时进行多个服务器请求,快速下载整个网站或网站的部分内容,包括HTML、图形、Java Appts、声音和其他用户自定义的文件,并将所有文件保存在硬盘中,可以是原生格式,也可以是压缩后的ZIP文件,离线查看。

3
3
3
2013-03-21 17:14:16 +0000
3
3
3
2009-09-16 22:17:23 +0000
3
3
3
2015-09-18 01:41:23 +0000

适用于Linux和OS X。我写了rab-site,用于将整个网站归档到WARC文件。这些WARC文件可以被浏览或提取出来。它还附带了大量的一组默认值,用于忽略垃圾URL。

有一个监控抓取的网络仪表板,以及跳过视频内容或超过一定大小的响应的附加选项。

1
1
1
2017-11-03 18:13:37 +0000

Power wget

虽然wget已经被提到了,但我认为这个资源和命令行是如此的无缝,我认为它值得一提:wget -P /path/to/destination/directory/ -mpck --user-agent="" -e robots=off --wait 1 -E https://www.example.com/ 参见解释说明的代码

0
0
0
2019-10-14 14:14:05 +0000

Save Page WE

优秀的Chrome和Firefox扩展,可以下载大部分/全部的网页内容并直接存储到.html文件中。

但是,它的效果比wget、PDF等都要好。很好的简单解决方案,满足了大多数人的需求。

0
0
0
2019-11-11 16:33:26 +0000

你可以使用以下免费的在线工具,它可以将所有的内容压缩成一个压缩文件,包含在该网址中

0
0
0
2015-09-27 08:49:33 +0000

可敬的FreeDownloadManager.org**也有这个功能,

免费下载管理器有两种形式,以两种形式的形式存在。Site Explorer和Site Spider ](http://www.freedownloadmanager.org/features.htm):

Site Explorer* Site Explorer可以让你查看网站的文件夹结构,并轻松下载必要的文件或文件夹。该工具可以调整为只下载指定扩展名的文件。

我发现Site Explorer很有用,在你尝试下载整个网站之前,可以看到要包含/排除哪些文件夹–特别是当网站中隐藏着整个论坛,而你不想下载的时候,比如说,有整个论坛。

-1
-1
-1
2015-09-21 16:02:12 +0000

下载HTTracker,它将下载网站的步骤非常简单。

下载链接http://www.httrack.com/page/2/

视频,可能对你有帮助https://www.youtube.com/watch?v=7IHIGf6lcL4

-3
-3
-3
2015-12-02 13:59:03 +0000
-4
-4
-4
2015-05-16 18:05:51 +0000

我相信google chrome在桌面设备上也可以做到这一点,只要到浏览器菜单中点击保存网页就可以了。

还有要注意的是,像pocket这样的服务可能并不能实际保存网站,所以容易出现链接腐烂的情况。