Nginx禁止蜘蛛爬取服务器

Posted enumx

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Nginx禁止蜘蛛爬取服务器相关的知识,希望对你有一定的参考价值。

修改nginx.conf,禁止网络爬虫的ua,返回403

添加agent_deny.conf配置文件

#禁止Scrapy等工具的抓取
if ($http_user_agent ~* (Scrapy|Curl|HttpClient)) {
  return 403;
}
#禁止指定UA及UA为空的访问
if ($http_user_agent ~ "FeedDemon|JikeSpider|Indy Library|Alexa Toolbar|AskTbFXTV|AhrefsBot|CrawlDaddy|CoolpadWebkit|Java|Feedly|UniversalFeedParser|ApacheBench|Microsoft URL Control|Swiftbot|ZmEu|oBot|jaunty|Python-urllib|lightDeckReports Bot|YYSpider|DigExt|YisouSpider|HttpClient|MJ12bot|heritrix|EasouSpider|LinkpadBot|Ezooms|^$" )
{
  return 403;
}
#禁止非GET|HEAD|POST方式的抓取
if ($request_method !~ ^(GET|HEAD|POST)$) {
  return 403;
}

 

在网站相关配置文件中插入代码“include agent_deny.conf ;”。

location ~ [^/].php(/|$)
{
  try_files $uri =404;
  fastcgi_pass  unix:/tmp/php-cgi.sock;
  fastcgi_index index.php;
  include fastcgi.conf;
  include agent_deny.conf;
}

 

重新加载nginx

/etc/init.d/nginx reload

 

 

另外从apache中直接禁掉所有蜘蛛的抓取可以用以下配置

BrowserMatch "Spider" bad_bot

 

以上是关于Nginx禁止蜘蛛爬取服务器的主要内容,如果未能解决你的问题,请参考以下文章

nginx通过robots.txt禁止所有蜘蛛访问(禁止搜索引擎收录)

利用nginx来屏蔽指定的user_agent的访问以及根据user_agent做跳转

20201010做个搜索引擎——网页蜘蛛代码编写

robots协议

简单介绍使用Nginx限制百度蜘蛛频繁抓取的问题

蜘蛛禁止访问文件