nginx
Posted holoyong
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了nginx相关的知识,希望对你有一定的参考价值。
并发数=进程数?
进程数与并发数不存在很直接的关系(比如通过异步非阻塞io就可以实现单线程处理多请求)。这取决取server采用的工作方式。
进程数越多,server效率越高?
如果一个server采用一个进程负责一个request的方式,那么进程数就是并发数。那么显而易见的,就是会有很多进程在等待中。等什么?最多的应该是等待网络传输(比如等待客户端请求数据的到来,等待应用服务器的响应)。
而nginx的异步非阻塞工作方式正是利用了这点等待时间。在需要等待的时候,这些进程就空闲出来待命(可以在本该等待的时候去做其他事,这是由异步非阻塞决定的,非阻塞决定了不会等待io的完成,异步决定了io任务完成后会有相应的通知,如果只是非阻塞的话,要想得知io是否完成,就需要不断主动询问),因此表现为少数几个进程就解决了大量的并发问题。
阻塞io是如何做的呢,简单来说:同样的4个进程,如果采用一个进程负责一个request的方式,那么,同时进来4个request之后,每个进程就负责其中一个,直至会话关闭。期间,如果有第5个request进来了。就无法及时反应了,因为4个进程都没干完活呢,因此,一般有个调度进程,每当新进来了一个request,就新开个进程来处理。
nginx不这样,每进来一个request,会有一个worker进程去处理(worker数固定,不会随着请求数的增长而增长)。但不是全程的处理,处理到什么程度呢?处理到可能发生阻塞的地方,比如向上游(后端)服务器转发request,并等待请求返回。那么,这个处理的worker不会这么傻等着,他会在发送完请求后,注册一个事件:“如果upstream返回了,告诉我一声,我再接着干”。于是他就休息去了。此时,如果再有request 进来,他就可以很快再按这种方式处理。而一旦上游服务器返回了,就会触发这个事件,worker才会来接手,这个request才会接着往下走。
由于webserver(apache、tomcat都属于应用服务器)的工作性质决定了每个request的大部份生命都是在网络io中(webserver属于网络io密集型应用,不算是计算密集型),实际上花费在server机器上的时间片不多。这是几个进程就解决高并发的秘密所在。
综上,异步、非阻塞、使用epoll,和大量细节处的优化,决定了nginx的高并发性。
参考:https://www.zhihu.com/question/22062795
以上是关于nginx的主要内容,如果未能解决你的问题,请参考以下文章