服务器反爬虫攻略:Apache/Nginx/PHP禁止某些User Agent抓取网站

Posted bcoder

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了服务器反爬虫攻略:Apache/Nginx/PHP禁止某些User Agent抓取网站相关的知识,希望对你有一定的参考价值。

一、Apache

①、通过修改 .htaccess 文件

修改网站目录下的.htaccess,添加如下代码即可(2 种代码任选):

可用代码 (1):

RewriteEngine On

RewriteCond %{HTTP_USER_AGENT} (^$|FeedDemon|Indy Library|Alexa Toolbar|AskTbFXTV|AhrefsBot|CrawlDaddy|CoolpadWebkit|Java|Feedly|UniversalFeedParser|ApacheBench|Microsoft URL Control|Swiftbot|ZmEu|oBot|jaunty|Pythonurllib|lightDeckReports Bot|YYSpider|DigExt|HttpClient|MJ12bot|heritrix|EasouSpider|Ezooms) [NC]

RewriteRule ^(.*)$  [F]

 可用代码 (2):

SetEnvIfNoCase ^UserAgent$ .*(FeedDemon|Indy Library|Alexa Toolbar|AskTbFXTV|AhrefsBot|CrawlDaddy|CoolpadWebkit|Java|Feedly|UniversalFeedParser|ApacheBench|Microsoft URL Control|Swiftbot|ZmEu|oBot|jaunty|Pythonurllib|lightDeckReports Bot|YYSpider|DigExt|HttpClient|MJ12bot|heritrix|EasouSpider|Ezooms) BADBOT

Order Allow,Deny

Allow from all

Deny from env=BADBOT

②、通过修改 httpd.conf 配置文件

找到如下类似位置,根据以下代码 新增 / 修改,然后重启 Apache 即可:

Shell

DocumentRoot /home/wwwroot/xxx

<Directory “/home/wwwroot/xxx”>

SetEnvIfNoCase UserAgent “.*(FeedDemon|Indy Library|Alexa Toolbar|AskTbFXTV|AhrefsBot|CrawlDaddy|CoolpadWebkit|Java|Feedly|UniversalFeedParser|ApacheBench|Microsoft URL Control|Swiftbot|ZmEu|oBot|jaunty|Python-urllib|lightDeckReports Bot|YYSpider|DigExt|HttpClient|MJ12bot|heritrix|EasouSpider|Ezooms)” BADBOT

        Order allow,deny

        Allow from all

       deny from env=BADBOT

</Directory>

二、nginx 代码

进入到 nginx 安装目录下的 conf 目录,将如下代码保存为 agent_deny.conf

cd /usr/local/nginx/conf

vim agent_deny.conf

#禁止Scrapy等工具的抓取

if ($http_user_agent ~* (Scrapy|Curl|HttpClient)) {

     return 403;

}

#禁止指定UA及UA为空的访问

if ($http_user_agent ~* “FeedDemon|Indy Library|Alexa Toolbar|AskTbFXTV|AhrefsBot|CrawlDaddy|CoolpadWebkit|Java|Feedly|UniversalFeedParser|ApacheBench|Microsoft URL Control|Swiftbot|ZmEu|oBot|jaunty|Python-urllib|lightDeckReports Bot|YYSpider|DigExt|HttpClient|MJ12bot|heritrix|EasouSpider|Ezooms|^$” ) {

     return 403;            

}

#禁止非GET|HEAD|POST方式的抓取

if ($request_method !~ ^(GET|HEAD|POST)$) {

    return 403;

}

然后,在网站相关配置中的  location / {  之后插入如下代码:

Shell

include agent_deny.conf;

如下的配置:

Shell

[marsge@Mars_Server ~]$ cat /usr/local/nginx/conf/zhangge.conf

location / {

        try_files $uri $uri/ /index.php?$args;

        #这个位置新增1行:

        include agent_deny.conf;

        rewrite ^/sitemap_360_sp.txt$ /sitemap_360_sp.php last;

        rewrite ^/sitemap_baidu_sp.xml$ /sitemap_baidu_sp.php last;

        rewrite ^/sitemap_m.xml$ /sitemap_m.php last;

保存后,执行如下命令,平滑重启 nginx 即可:

Shell

/usr/local/nginx/sbin/nginx s reload

三、PHP 代码

将如下方法放到贴到网站入口文件 index.php 中的第一个 <?php 之后即可:

PHP

//获取UA信息

$ua = $_SERVER[‘HTTP_USER_AGENT’];

//将恶意USER_AGENT存入数组

$now_ua = array(‘FeedDemon ‘,‘BOT/0.1 (BOT for JCE)’,‘CrawlDaddy ‘,‘Java’,‘Feedly’,‘UniversalFeedParser’,‘ApacheBench’,‘Swiftbot’,‘ZmEu’,‘Indy Library’,‘oBot’,‘jaunty’,‘YandexBot’,‘AhrefsBot’,‘MJ12bot’,‘WinHttp’,‘EasouSpider’,‘HttpClient’,‘Microsoft URL Control’,‘YYSpider’,‘jaunty’,‘Python-urllib’,‘lightDeckReports Bot’);

//禁止空USER_AGENT,dedecms等主流采集程序都是空USER_AGENT,部分sql注入工具也是空USER_AGENT

if(!$ua) {

    header(“Content-type: text/html; charset=utf-8”);

    die(‘请勿采集本站,因为采集的站长木有小JJ!’);

}else{

    foreach($now_ua as $value )

//判断是否是数组中存在的UA

    if(eregi($value,$ua)) {

        header(“Content-type: text/html; charset=utf-8”);

        die(‘请勿采集本站,因为采集的站长木有小JJ!’);

    }

}

四、测试效果

如果是 vps,那非常简单,使用 curl -A 模拟抓取即可,比如:

模拟宜搜蜘蛛抓取:

Shell

1

curl I A ‘YisouSpider’ bizhi.bcoderss.com

模拟 UA 为空的抓取:

Shell

1

curl I A  bizhi.bcoderss.com

模拟百度蜘蛛的抓取:

Shell

1

curl I A ‘Baiduspider’ bizhi.bcoderss.com


以上是关于服务器反爬虫攻略:Apache/Nginx/PHP禁止某些User Agent抓取网站的主要内容,如果未能解决你的问题,请参考以下文章

15《Python 原生爬虫教程》爬虫和反爬虫

反爬虫之信息校验反爬虫

反爬虫简述

WebSocket 反爬虫

第7章 Scrapy突破反爬虫的限制

如何应对反爬虫技术?