下载整个网站的方法

下载整个网站除了使用 Teleport、Offline Explorer 这些工具外,Linux 的 wget 命令也是不错的选择:
$ wget -r -p -np -k www.baidu.com

引用内容 引用内容
-r --recursive(递归) specify recursive download.(指定递归下载)
-k --convert-links(转换链接) make links in downloaded HTML point to local files.(将下载的HTML页面中的链接转换为相对链接即本地链接)
-p --page-requisites(页面必需元素) get all images, etc. needed to display HTML page.(下载所有的图片等页面显示所需的内容)
-np --no-parent(不追溯至父级) don't ascend to the parent directory.
其他参数:
-nc  断点续传
-o   生成日志文件


Windows 的话可以下载使用 Wget for Windows:http://gnuwin32.sourceforge.net/packages/wget.htm
[本日志由 parno 于 2018-11-14 10:12 AM 更新]
上一篇: 平面排版时,突出中文美感的几种方法
下一篇: 2018高中组网安试题(7.30)
文章来自: 本站原创
引用通告: 查看所有引用 | 我要引用此文章
Tags: Linux wget download Web
相关日志:
评论: 0 | 引用: 0 | 查看次数: 4383
发表评论
昵 称:
密 码: 游客发言不需要密码.
邮 箱: 邮件地址支持Gravatar头像,邮箱地址不会公开.
网 址: 输入网址便于回访.
内 容:
验证码:
选 项:
虽然发表评论不用注册,但是为了保护您的发言权,建议您注册帐号.
字数限制 500 字 | UBB代码 关闭 | [img]标签 关闭