ubuntu使用wget下载网页

命令:

wget -r -p -k -np http://www..............cn

先进入需要保存的文件的目录,执行后会创建一个域名的文件夹,所有文件都回保存在里面

参数说明:

-r:递归下载,下载网址内容后还要下载网页内的所有链接

-np:不下载父目录或者站外链接

-k:替换网页内的站内链接为本地地址

-p:下载显示网页所需的元素,比如图片视频等

-P /tmp/test:下载到/tmp/test目录(P为大写)

-np:不在本机创建目录结构

-c:断点续传

-t 100:重试100次,(-t 0无穷次重试)

-i urllist.txt:下载urllist.txt中的所有链接

--reject=MP4,MP3:不下载MP3、MP4文件

--accept=jpg,png:只下载jpg,png文件

 

类似功能工具还有httrack。