下载整个网站的方法
作者: parno 日期: 2018-11-14
复制内容到剪贴板
程序代码

$ wget -r -p -np -k www.baidu.com

-r --recursive(递归) specify recursive download.(指定递归下载)
-k --convert-links(转换链接) make links in downloaded HTML point to local files.(将下载的HTML页面中的链接转换为相对链接即本地链接)
-p --page-requisites(页面必需元素) get all images, etc. needed to display HTML page.(下载所有的图片等页面显示所需的内容)
-np --no-parent(不追溯至父级) don't ascend to the parent directory.
其他参数:
-nc 断点续传
-o 生成日志文件
-k --convert-links(转换链接) make links in downloaded HTML point to local files.(将下载的HTML页面中的链接转换为相对链接即本地链接)
-p --page-requisites(页面必需元素) get all images, etc. needed to display HTML page.(下载所有的图片等页面显示所需的内容)
-np --no-parent(不追溯至父级) don't ascend to the parent directory.
其他参数:
-nc 断点续传
-o 生成日志文件
Windows 的话可以下载使用 Wget for Windows:http://gnuwin32.sourceforge.net/packages/wget.htm
[本日志由 parno 于 2018-11-14 10:12 AM 更新]






评论:
0
| 引用:
0
| 查看次数:
3547
发表评论