下载整个网站的方法
作者:parno 日期:2018-11-14
复制内容到剪贴板
程序代码
![程序代码](images/code.gif)
$ wget -r -p -np -k www.baidu.com
![引用内容](images/quote.gif)
-r --recursive(递归) specify recursive download.(指定递归下载)
-k --convert-links(转换链接) make links in downloaded HTML point to local files.(将下载的HTML页面中的链接转换为相对链接即本地链接)
-p --page-requisites(页面必需元素) get all images, etc. needed to display HTML page.(下载所有的图片等页面显示所需的内容)
-np --no-parent(不追溯至父级) don't ascend to the parent directory.
其他参数:
-nc 断点续传
-o 生成日志文件
-k --convert-links(转换链接) make links in downloaded HTML point to local files.(将下载的HTML页面中的链接转换为相对链接即本地链接)
-p --page-requisites(页面必需元素) get all images, etc. needed to display HTML page.(下载所有的图片等页面显示所需的内容)
-np --no-parent(不追溯至父级) don't ascend to the parent directory.
其他参数:
-nc 断点续传
-o 生成日志文件
Windows 的话可以下载使用 Wget for Windows:http://gnuwin32.sourceforge.net/packages/wget.htm
[本日志由 parno 于 2018-11-14 10:12 AM 更新]
![](images/Cprevious.gif)
![](images/Cnext.gif)
![](images/From.gif)
![](images/icon_trackback.gif)
![](images/tag.gif)
![](images/notify.gif)
评论: 0 | 引用: 0 | 查看次数: 4302
发表评论