wget 爬取网站网页

Posted aibabel

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了wget 爬取网站网页相关的知识,希望对你有一定的参考价值。

相应的安装命名

yum -y install wget

yum -y install setup

yum -y install perl

wget -r   -p -np -k -E  http://www.xxx.com 抓取整站

wget -l 1 -p -np -k       http://www.xxx.com 抓取第一级

-r 递归抓取
-k 抓取之后修正链接,适合本地浏览

http://blog.sina.com.cn/s/blog_669fb0c3010137bq.html

wget -m -e robots=off -k -E "http://www.abc.net/"
可以将全站下载以本地的当前工作目录,生成可访问、完整的镜像。

解释:

-m  //镜像,就是整站抓取
-e robots=off   //忽略robots协议,强制、流氓抓取
-k  //将绝对URL链接转换为本地相对URL
-E //将所有text/html文档以.html扩展名保存

以上是关于wget 爬取网站网页的主要内容,如果未能解决你的问题,请参考以下文章

使用wget命令爬取整站

怎么用python爬取一个网站的网页数量

如何爬取URL不变的网站内容

利用linux curl爬取网站数据

python爬虫可以爬取网页见不到的东西吗如web后台数据库

零基础学python(1)——爬取房天下网站信息