PHP网站首页打不开的原因讲起

Posted 21aspnet

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了PHP网站首页打不开的原因讲起相关的知识,希望对你有一定的参考价值。

最近有个网站首页打不开,偶尔报504错误,如图所示,这是nginx直接返回的。

技术分享

今天下午16:00多又出现了,看了下阿里云数据库连接,其实在晚上2:00也出现了一次。这个图是后来问题已经解决了获取的,数据库连接的请求数已经降下来了。

技术分享


现在似乎是数据库压力很大,由于我们的数据库服务器同时有好几个库在线上,并不确定是其他系统把数据库拖垮还是当前这个系统的原因。


使用语句查询数据库的会话数

SQLSERVER 查看当前连接数
Select * from sys.dm_exec_connections --此命令可以看到有多少人在连
Select * from sys.dm_exec_sessions --此命令可以看到有多少会话,一个连接可以有多个会话

技术分享

从图中大致定位到还是之前报504的网站对数据库的请求数很多。


定位到具体应用就可以上对应的服务器去进一步去查

先看CPU是比较正常的

技术分享


再查php-FPM的进程数

技术分享

正常情况下php进程只有10个左右,一下子变成这么多肯定说明是外界有很大的请求数。


但是为了确定是不是php出现什么异常导致进程无法结束,所以结束所有进程,重启php-fpm.。

发现没过多久又出现很多的进程数,所以可以得出结论:这说明nginx报504的原因是外界的请求是持续的,导致数据库压力巨大请求不过来,所以nginx报504


然后查这个时候的nginx日志最近500条数据

#tail -n 500 /usr/local/nginx/logs/access.log >>500_20160218-1712.txt

技术分享

从日志里看出主要是百度和搜狗的蜘蛛在爬行,百度是一直在爬行的,应该是比较稳定不会导致网站突然流量剧增,而且据说百度会控制访问的频率,保证不把网站爬挂。

看来后面的日志,发现这个时间段搜狗的蜘蛛爬行数量是非常多的,由于蜘蛛是用集群在爬,所以屏蔽IP是没用的,只能在nginx里屏蔽请求头。

server {
	listen       80;
	root        /www/;
	index  index.php;
	#禁止特定爬虫的抓取
	if ($http_user_agent ~* "Sogou web spider") {
	 return 403;
	}

然后重新结束php进程,启动php进程,发现整个进程是非常平稳的维持在10个

技术分享

说明就是搜狗搞的事情,当务之急只能先这么着了,谁让搜狗没有多少用户群呢,后续的解决方案还是使用缓存,所以从这个事情得出一条非常重要的结论,尽量使用缓存,不要因为网站现在很稳定就不使用缓存,因为网站随时会遇到这种访问量突发的情况


屏蔽搜狗之前:

技术分享

屏蔽搜狗之后:

技术分享


下面是从nginx日志中分析出来的各种蜘蛛对网站的爬行数据排名靠前的几个,其实已经屏蔽了谷歌等很多用处不大的爬虫,但是还是有很多爬虫在爬:

技术分享

看的出来搜狗一天怕了不少。

以上是关于PHP网站首页打不开的原因讲起的主要内容,如果未能解决你的问题,请参考以下文章

网站打不开的6种现象及解决方法

httpurlconnection下载pdf文件打不开的原因,和解决代码

P站进不去打不开的方法

Eclipse打不开的原因

thinkphp前端显示网络异常

iperf打不开的解决方法