使用Wget下载整个网站

2015年12月11日

写在前面


发现一个Linux Shell命令总结的很不错的小网站,于是用Wget做了本地备份,方便离线查看。

干货


wget --recursive --no-clobber --page-requisites --html-extension --convert-links --restrict-file-names=windows --domains lampweb.org --no-parent www.lampweb.org/linux/

命令解释:

--recursive 递归下载整个站点

--no-clobber 不要覆盖已有文件(以防下载被中断而重新开始)

--domains lampweb.org 不要下载lampweb.org以外的链接地址

--no-parent 不要下载org/linux/目录之外的内容

--page-requisites 下载所有页面需要的元素(图像、CSS等等)

--html-extention 只下载html相关的文件

--convert-links 转换链接地址,从而本地离线可以正常访问

--restrict-file-names=windows 修改文件名以使文件也可以在windows下访问(某些情况文件名在Linux下合法而在windows下非法)。

小注


Wget是Linux下的工具,Windows下我用的Cygwin(在Windows上运行的类UNIX系统),Cygwin的具体安装使用可移步Windows下Cygwin的使用


版权声明:本文为博主原创文章,转载请注明出处 本文总阅读量    次