爬虫Robots协议
Posted gabrielle
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了爬虫Robots协议相关的知识,希望对你有一定的参考价值。
?Robots协议就是每个网站对于来到的爬虫所提出的要求。(并非强制要求遵守的协议,只是一种建议,但是如果不遵守有可能会承担法律责任。)
?每个网站的Robots协议都在该网站的根目录下,例如百度的Robots协议的位置就是’https://www.baidu.com/robots.txt’ 或者京东的Robots协议就在’https://www.jd.com/robots.txt’
下面给出一段京东的Robots的内容:
User-agent: *
Disallow: /?*
Disallow: /pop/*.html
Disallow: /pinpai/*.html?*
User-agent: EtaoSpider
Disallow: /
User-agent: HuihuiSpider
Disallow: /
User-agent: GwdangSpider
Disallow: /
User-agent: WochachaSpider
Disallow: /
第一个的意思就是说对于所有的爬虫,不能爬取在/?开头的路径,也不能访问和/pop/*.html 匹配的路径。
后面四个用户代理的爬虫不允许访问任何资源。
所以Robots协议的基本语法如下:
User-agent: 这里是爬虫的名字
Disallow: /该爬虫不允许访问的内容
---------------------
作者:Ars-Nova
来源:CSDN
原文:https://blog.csdn.net/qq_36346262/article/details/79344109
版权声明:本文为博主原创文章,转载请附上博文链接!
以上是关于爬虫Robots协议的主要内容,如果未能解决你的问题,请参考以下文章