HTTRACK在复制整个网站的内容时,它的作用就像一个冠军一样。这款工具甚至可以抓取需要的内容,让一个网站的活动代码内容离线工作。
这个程序可以做到你所需要的一切,我对它的离线复制能力感到非常惊讶。
Internet Download Manager](http://www.internetdownloadmanager.com/)有一个网站抓取工具,它有很多选项,让你可以完全下载你想要的任何网站,以你想要的方式下载。你可以设置要下载的页面/文件的大小限制
您可以设置要访问的分支网站的数量
您可以改变脚本/弹出/复制的方式
4.您可以指定一个域,只有在该域下,所有符合要求的页面/文件才会被下载
5.链接可以转换为离线链接,以便浏览
6.您有模板,可以为您选择上述设置
7.软件不是免费的,但是,如果您需要,请使用评估版。
我来说说浏览器使用的在线缓冲…..
通常情况下,大多数浏览器都会使用浏览缓存,将你从网站上下载的文件保留一段时间,这样你就不用反复下载静态的图片和内容。在某些情况下,这可以加快一些速度。一般来说,大多数浏览器的缓存都有一个固定的大小限制,当达到这个限制时,它就会删除缓存中最老的文件。这为他们省去了每次网络上有人访问这些网站的麻烦。这可以大大节省向外部网站向ISP重复请求的数量。
WebZip](http://www.spidersoft.com/webzip/screenshots.asp)也是一个不错的产品。
我已经很多年没做过这个了,但还是有一些实用的工具。你不妨试试Web Snake。我相信我多年前就用过了。当我看到你的问题时,我马上就记住了这个名字。
我同意Stecy的观点。请不要敲打他们的网站。非常糟糕。
虽然wget已经被提到了,但我认为这个资源和命令行是如此的无缝,我认为它值得一提:wget -P /path/to/destination/directory/ -mpck --user-agent="" -e robots=off --wait 1 -E https://www.example.com/
参见解释说明的代码
优秀的Chrome和Firefox扩展,可以下载大部分/全部的网页内容并直接存储到.html
文件中。
但是,它的效果比wget、PDF等都要好。很好的简单解决方案,满足了大多数人的需求。
你可以使用以下免费的在线工具,它可以将所有的内容压缩成一个压缩文件,包含在该网址中
可敬的FreeDownloadManager.org**也有这个功能,
免费下载管理器有两种形式,以两种形式的形式存在。Site Explorer和Site Spider ](http://www.freedownloadmanager.org/features.htm):
Site Explorer* Site Explorer可以让你查看网站的文件夹结构,并轻松下载必要的文件或文件夹。该工具可以调整为只下载指定扩展名的文件。
我发现Site Explorer很有用,在你尝试下载整个网站之前,可以看到要包含/排除哪些文件夹–特别是当网站中隐藏着整个论坛,而你不想下载的时候,比如说,有整个论坛。
Firefox可以在原生状态下做到(至少FF 42可以)。只需使用 “保存页面”