初探nginx

Posted hoo334

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了初探nginx相关的知识,希望对你有一定的参考价值。

nginx 简介

nginx概述

nginx是一款轻量级的Web服务器/反向代理服务器及电子邮件(IMAP/POP3)代理服务器,在BSD-like 协议下发行。其特点是占有内存少,并发能力强,事实上nginx的并发能力在同类型的网页服务器中表现较好。

nginx 作为服务器

nginx作为负载均衡服务:nginx 既可以在内部直接支持 Rails 和 php 程序对外进行服务,也可以支持作为 HTTP代理服务对外进行服务。nginx采用C进行编写,不论是系统资源开销还是CPU使用效率都比 Perlbal 要好很多。

处理静态文件,索引文件以及自动索引;打开文件描述符缓冲。

无缓存的反向代理加速,简单的负载均衡和容错。

正向代理

nginx 不仅可以做反向代理,实现负载均衡。还能用作正向代理来进行上网等功能。

客户端 --> 代理服务器 --> Internet

技术图片

反向代理

反向代理,其实客户端对代理是无感知的,因为客户端不需要任何配置就可以访问,我们只
需要将请求发送到反向代理服务器,由反向代理服务器去选择目标服务器获取数据后,在返
回给客户端,此时反向代理服务器和目标服务器对外就是一个服务器,暴露的是代理服务器
地址,隐藏了真实服务器 IP 地址。

技术图片

负载均衡

并发请求过大时,单个服务器不足以支撑,我们增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所说的负载均衡。

技术图片

动静分离

为了加快网站的解析速度,可以把动态页面和静态页面由不同的服务器来解析,加快解析速
度。降低原来单个服务器的压力。

技术图片

CentOS 下安装 nginx

安装nginx所需依赖

首先检查是否已经安装依赖,能显示出版本号则可跳过该步骤。

rpm -qa | grep pcre

rpm -qa | grep zlib

rpm -qa | grep gcc

rpm -qa | grep zlib

安装 pcre

下载压缩包

wget http://downloads.sourceforge.net/project/pcre/pcre/8.37/pcre-8.37.tar.gz

找到压缩包所在位置,解压

tar -xvf pcre-8.37.tar.gz

进入目录 pcre-8.37,配置并安装

./configure

make && make install

安装 openssl 、zlib 等依赖

yum -y install make zlib zlib-devel gcc-c++ libtool openssl openssl-devel

安装 nginx

进入官网,选择 nginx-1.18.0,下载。找到压缩包位置,解压。

tar -xvf nginx-1.18.0.tar.gz

进入 nginx-1.18.0 目录

cd nginx-1.18.0

配置并安装

./configure

make && make install

防火墙配置(也可以直接关闭防火墙,不推荐这么做)

查看开放的端口

firewall-cmd --list-all

设置开放的端口(开放80端口)

firewall-cmd --add-service=http –permanent
sudo firewall-cmd --add-port=80/tcp --permanent

重启防火墙

firewall-cmd –reload

nginx 常用命令及配置文件说明

nginx 常用命令

首先进入sbin目录:

cd /usr/local/nginx/sbin

启动

./nginx

关闭

./nginx -s stop

重新加载

./nginx -s reload

nginx.conf 配置文件

配置文件在 /usr/local/nginx/conf 目录下。

文件中许多都是注释掉的部分,将其精简得到如下内容。

worker_processes  1;

events {
    worker_connections  1024;
}

http {
    include       mime.types;
    default_type  application/octet-stream;

    sendfile        on;

    keepalive_timeout  65;

    server {
        listen       80;
        server_name  localhost;

        location / {
            root   html;
            index  index.html index.htm;
        }

        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }
}
nginx.conf 文件三部分
全局块

从配置文件开始到 events 块之间的内容,主要会设置一些影响 nginx 服务器整体运行的配置指令,主要包括配
置运行 Nginx 服务器的用户(组)、允许生成的 worker process 数,进程 PID 存放路径、日志存放路径和类型以
及配置文件的引入等。

worker_processes  1;

这是 Nginx 服务器并发处理服务的关键配置,worker_processes 值越大,可以支持的并发处理量也越多,但是会受到硬件、软件等设备的制约。

events 块
events {
    worker_connections  1024;
}

events 块涉及的指令主要影响 nginx 服务器与用户的网络连接,常用的设置包括是否开启对多 work process
下的网络连接进行序列化,是否允许同时接收多个网络连接,选取哪种事件驱动模型来处理连接请求,每个 word
process 可以同时支持的最大连接数等。
上述例子就表示每个 work process 支持的最大连接数为 1024。这部分的配置对 Nginx 的性能影响较大,在实际中应该灵活配置。

http块
http {
    include       mime.types;
    default_type  application/octet-stream;

    sendfile        on;

    keepalive_timeout  65;

    server {
        listen       80;
        server_name  localhost;

        location / {
            root   html;
            index  index.html index.htm;
        }

        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }
}

这算是 Nginx 服务器配置中最频繁的部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里。
需要注意的是:http 块也可以包括 http 全局块、server 块。

  1. http 全局块

    http 全局块配置的指令包括文件引入、MIME-TYPE 定义、日志自定义、连接超时时间、单链接请求数上限等。

  2. server 块

    这块和虚拟主机有密切关系,虚拟主机从用户角度看,和一台独立的硬件主机是完全一样的,该技术的产生是为了节省互联网服务器硬件成本。
    每个 http 块可以包括多个 server 块,而每个 server 块就相当于一个虚拟主机。而每个 server 块也分为全局 server 块,以及可以同时包含多个 locaton 块。

    • 全局 server 块

      最常见的配置是本虚拟机主机的监听配置和本虚拟主机的名称或 IP 配置。

    • location 块

      一个 server 块可以配置多个 location 块。
      这块的主要作用是基于 Nginx 服务器接收到的请求字符串(例如 server_name/uri-string),对虚拟主机名称
      (也可以是 IP 别名)之外的字符串(例如 前面的 /uri-string)进行匹配,对特定的请求进行处理。地址定向、数据缓
      存和应答控制等功能,还有许多第三方模块的配置也在这里进行。

反向代理实例1

实现效果:使用 nginx 反向代理,访问 www.123.com 直接跳转到 tomcat主页面。

首先在服务器安装 tomcat进入官网下载linux版本。

解压

tar -xvf apache-tomcat-7.0.70.tar.gz

启动 tomcat

cd apache-tomcat-7.0.70/bin

./startup.sh

没有错误的话,在服务器访问 localhost:8080 可以看到 tomcat 主界面。

同时我们需要开启服务器的 8080 端口,便于客户机访问。

firewall-cmd --add-port=8080/tcp --permanent
firewall-cmd –reload

在windows 浏览器中输入192.168.1.200:8080(192.168.1.200为服务器 IP)也可以访问到 tomcat 主界面。

在 windows hosts 文件中添加域名映射:

192.168.1.200 www.123.com

访问 www.123.com:8080也可以访问到 tomcat 主界面。

修改 nginx 配置文件实现反向代理

技术图片

启动 nginx 服务器,访问 www.123.com 即可看到 tomcat 主界面。

反向代理实例2

实现效果:使用 nginx 实现反向代理,根据访问路径的不同跳转到不同端口的服务中。

nginx 监听端口为 9001,

访问 192.168.1.200:9001/edu/ 跳转到 localhost:8080

访问 192.168.1.200:9001/vod/ 跳转到 localhost:8081

我们需要两台 tomcat,直接解压 tomcat 压缩包到两个文件夹。8080 端口的 tomcat 不需要配置,8081 端口的 tomcat 需要更改端口:

进入 tomcat 解压文件夹,进入 conf 文件夹,找到 server.xml

更改如下端口号:

<Server port="8015" shutdown="SHUTDOWN">  // 将默认 8005 改为 8015
<Connector port="8081" protocol="HTTP/1.1" // 将默认 8080 改为 8081
<Connector port="8019" protocol="AJP/1.3" redirectPort="8443" /> //将默认 8009 改为 8019

进入bin目录,启动两台tomcat

./startup.sh

可在虚拟机中访问 localhost:8080 和 localhost:8081 看到 tomcat 主页面。开放防火墙 8080 和 8081 端口后,可在 windows 中访问 192.168.1.200:8080 和 192.168.1.200:8081 都能看到 tomcat 主页面。

接下来我们将两个静态资源分别放入 tomcat 的 webapps 文件夹中。

我们新建两个 html 文件,8080端口的tomcat 中有一个文件夹 edu,文件夹内一个名为a.html,文件内容为<h1>8080<h1>,8081端口的tomcat 中有一个文件夹 vod,文件夹内一个名为a.html,文件内容为<h1>8081<h1>

windows 访问192.168.1.200:8080/edu/a.html 和 192.168.1.200:8081/vod/a.html 可分别看见 8080 和 8081 字样。

再来继续配置 nginx,打开 nginx.conf,更改如下内容。

技术图片

启动 nginx,我们在 windows 环境下 访问 192.168.1.200:9001/edu/a.html 和 192.168.1.200:9001/vod/a.html 即可看到 8080 和 8081 字样。

负载均衡

实现效果:浏览器中输入 192.168.1.200/edu/a.html,可以看到 8080 和 8081 字样不停变换。

我们新建两个 html 文件,8080端口的tomcat 中有一个文件夹 edu,文件夹内一个名为a.html,文件内容为<h1>8080<h1>,8081端口的tomcat 中同样有一个文件夹 edu,文件夹内一个名为a.html,文件内容为<h1>8081<h1>

windows 访问192.168.1.200:8080/edu/a.html 和 192.168.1.200:8081/edu/a.html 可分别看见 8080 和 8081 字样。

我们在 nginx 配置文件中进行修改:

技术图片

启动 nginx,windows 访问 192.168.1.200/edu/a.html,不停刷新,即可看到 8080 和 8081交替出现(如果不交替出现,可能是浏览器缓存,换 edge 试试)。

负载均衡的集中方式:

  1. 轮询(默认)

    每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。

  2. weight

    weight 表示权重,默认为1,权重越高,服务器分配到的客户端越多。指定轮询几率,weight 和访问比率成正比,用于后端服务器性能不均的情况。

    技术图片

  3. ip_hash

    每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器,可以解决 session 的问题。

    技术图片

  4. fair

    按后端服务器的响应时间来分配请求,响应时间短的优先分配。

    技术图片

动静分离

nginx 动静分离简单来说就是把动态跟静态请求分开,不能理解成只是单纯的把动态页面和
静态页面物理分离。严格意义上说应该是动态请求跟静态请求分开,可以理解成使用 nginx
处理静态页面,Tomcat 处理动态页面。

一种是纯粹把静态文件独立成单独的域名,放在独立的服务器上,也是目前主流推崇的方案;
另外一种方法就是动态跟静态文件混合在一起发布,通过 nginx 来分开。
通过 location 指定不同的后缀名实现不同的请求转发。通过 expires 参数设置,可以使
浏览器缓存过期时间,减少与服务器之前的请求和流量。具体 Expires 定义:是给一个资
源设定一个过期时间,也就是说无需去服务端验证,直接通过浏览器自身确认是否过期即可,
所以不会产生额外的流量。此种方法非常适合不经常变动的资源。(如果经常更新的文件,
不建议使用 Expires 来缓存),我这里设置 3d,表示在这 3 天之内访问这个 URL,发送
一个请求,比对服务器该文件最后更新时间没有变化,则不会从服务器抓取,返回状态码
304,如果有修改,则直接从服务器重新下载,返回状态码 200。

在 linux 系统中准备静态资源:

cd /

mkdir data

cd data

mkdir www

mkdir image

在 www 文件夹下放一个 html 文件(名为 a.html),在image 文件夹下放一张图片(1.jpg)。

配置 nginx 实现文件与 web 请求路径的映射。

技术图片

在 windows 访问 192.168.1.200/image/1.jpg即可看到图片,访问 192.168.1.200/www/a.html即可看到页面信息。访问 192.168.1.200/image/ ,你会看到目录下的文件信息,这就是 autoindex on 的作用。

高可用集群(主从模式)

一般 nginx 都是以集群来工作,增加可用性,我们要实现一主一备 nginx,当主 nginx 挂了,备份nginx 可以继续工作。

我们需要在两台 linux 虚拟机,分别安装 nginx。

我们还需要在两台虚拟机中安装 keepalived:

yum install keepalived –y

在/etc 文件夹下,修改主nginx 虚拟机的 keepalived.conf:

 Configuration File for keepalived

global_defs {
   notification_email {
     acassen@firewall.loc
     failover@firewall.loc
     sysadmin@firewall.loc
   }
   notification_email_from Alexandre.Cassen@firewall.loc
   smtp_server 192.168.1.200
   smtp_connect_timeout 30
   router_id LVS_DEVEL
}

vrrp_script chk_http_port {
    script "/usr/local/src/nginx_check.sh"   # 检测 nginx 是否活着的脚本

    interval 2        #(检测脚本执行的间隔)

    weight 2
}

vrrp_instance VI_1 {
    state MASTER     # 备份服务器上将 MASTER 改为 BACKUP
    interface ens33  # 网卡
    virtual_router_id 51  # 主、备机的 virtual_router_id 必须相同
    priority 100    # 主、备机取不同的优先级,主机值较大,备份机值较小
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        192.168.17.50  #  VRRP H 虚拟地址
    }
}

修改备份 nginx 虚拟机的 keepalived.conf:

! Configuration File for keepalived

global_defs {
   notification_email {
     acassen@firewall.loc
     failover@firewall.loc
     sysadmin@firewall.loc
   }
   notification_email_from Alexandre.Cassen@firewall.loc
   smtp_server 192.168.1.200
   smtp_connect_timeout 30
   router_id LVS_DEVEL
}

vrrp_script chk_http_port {
    script "/usr/local/src/nginx_check.sh"

    interval 2

    weight 2
}

vrrp_instance VI_1 {
    state BACKUP
    interface ens33
    virtual_router_id 51
    priority 90
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        192.168.17.50
    }
}

在两台虚拟机的 /usr/local/src 添加检测脚本 nginx_check.sh :

#!/bin/bash
A=`ps -C nginx –no-header |wc -l`
if [ $A -eq 0 ];then
    /usr/local/nginx/sbin/nginx
    sleep 2
    if [ `ps -C nginx --no-header |wc -l` -eq 0 ];then
        killall keepalived
    fi
fi

把两台服务器上的 nginx 和 keepalived 启动

nginx sbin 目录下启动 nginx ./nginx

启动keepalived systemctl start keepalived.service

在 windows 浏览器访问 192.168.17.50,即可看见 nginx 主界面,我们将主 nginx 关闭,再次访问,依然能看见 nginx 主界面,说明备份 nginx 工作正常。

nginx 原理

技术图片

技术图片

master - workers 的机制的好处
首先,对于每个 worker 进程来说,由于采用多个相互独立的进程,单一的 worker 进程出问题了,不会影响到 nginx 的全部服务,只是该 worker 上的全部请求失败。

需要设置多少个 worker
Nginx 同 redis 类似都采用了 io 多路复用机制,每个 worker 都是一个独立的进程,但每个进
程里只有一个主线程,通过异步非阻塞的方式来处理请求, 即使是千上万个请求也不在话
下。每个 worker 的线程可以把一个 cpu 的性能发挥到极致。所以 worker 数和服务器的 cpu
数相等是最为适宜的。设少了会浪费 cpu,设多了会造成 cpu 频繁切换上下文带来的损耗。

设置 worker 数量

worker_processes 4

work 绑定 cpu(4 work 绑定 4cpu)。

worker_cpu_affinity 0001 0010 0100 1000

work 绑定 cpu (4 work 绑定 8 cpu 中的 4 个) 。

worker_cpu_affinity 0000001 00000010 00000100 00001000

连接数 worker_connection 表示每个 worker 进程所能建立连接的最大值。一个 nginx 能建立的最大连接数,应该是 worker_connections * worker_processes。当然,这里说的是最大连接数,对于HTTP 请 求 本 地 资 源 来 说 , 能 够 支 持 的 最 大 并 发 数 量 是 worker_connections * worker_processes,如果是支持 http1.1 的浏览器每次访问要占两个连接,所以普通的静态访问最大并发数是: worker_connections * worker_processes /2,而如果是 HTTP 作 为反向代理来说,最大并发数量应该是 worker_connections * worker_processes/4。因为作为反向代理服务器,每个并发会建立与客户端的连接和与后端服务的连接,会占用两个连接。
































以上是关于初探nginx的主要内容,如果未能解决你的问题,请参考以下文章

Nginx初探

Nginx初探

初探nginx

初探nginx——安装

初探nginx负载均衡配置

Nginx作为动静分离缓存与负载均衡初探