网络爬虫的“盗亦有道”

Posted cripplepx

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了网络爬虫的“盗亦有道”相关的知识,希望对你有一定的参考价值。

2.1 网络爬虫引发的问题

技术图片

                                                             图 网络爬虫的尺寸

 

网络爬虫的限制

  来源审查:判断User-Agent进行限制

  •   检查来访HTTP协议头的User-Agent域,只响应浏览器或者友好爬虫的访问。

  发布公告:Robots协议

  •   告知所有爬虫网站的爬取策略,要求爬虫遵守

 

2.2 Robots协议

Robots Exclusion Standard 网络爬虫排除标准

  作用:网站告知网络爬虫哪些页面可以抓取,哪些不行。

  形式:在网站根目录下的robots.txt文件。

 

例子:京东的Robots协议

https://www.jd.com/robots.txt

User-agent: * 
Disallow: /?* 
Disallow: /pop/*.html 
Disallow: /pinpai/*.html?* 
User-agent: EtaoSpider 
Disallow: / 
User-agent: HuihuiSpider 
Disallow: / 
User-agent: GwdangSpider 
Disallow: / 
User-agent: WochachaSpider 
Disallow: /

http://www.baidu.com/robots.txt

http://www.sina.com.cn/robots.txt

http://news.sina.com.cn/robots.txt

http://www.qq.com/robots.txt

http://news.qq.com/robots.txt

http://www.sdju.edu.cn/robots.txt(无robots协议)

 

Robots协议的使用

  网络爬虫:自动或人工识别robots.txt,再进行内容爬取。

  约束性:Robots协议是建议但非约束性,网络爬虫可以不遵守,但存在法律风险。

以上是关于网络爬虫的“盗亦有道”的主要内容,如果未能解决你的问题,请参考以下文章

003 Python网络爬虫与信息提取 网络爬虫的'盗亦有道'

网络爬虫-课程大纲

scrapy按顺序启动多个爬虫代码片段(python3)

scrapy主动退出爬虫的代码片段(python3)

python网络爬虫

VSCode自定义代码片段14——Vue的axios网络请求封装