创作赢红包Nginx四——Nginx实现负载均衡的多种策略

Posted 王卫——David

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了创作赢红包Nginx四——Nginx实现负载均衡的多种策略相关的知识,希望对你有一定的参考价值。

系列文章目录

nginx一】——Nginx介绍(正向代理 反向代理 负载均衡 动静分离)
【Nginx二】——Nginx常用命令 配置文件
Nginx如何处理请求
【Nginx三】——Nginx实现反向代理


Nginx实现负载均衡


前言

本篇博客主要介绍Nginx实现负载均衡的多种策略,包括轮询、最少连接、IP哈希、加权轮询、URL哈希。


一、Nginx的负载均衡是什么

Nginx可以通过反向代理实现负载均衡,有策略的分发请求给不同的后端服务器。避免单点故障,增强整个系统的可用性,从而提高系统的并发处理能力。

nginx中的反向代理实现包括HTTP的负载平衡, HTTPS,FastCGI,uwsgi,SCGI,memcached和gRPC。
要为 HTTPS 而不是 HTTP 配置负载平衡,只需使用“https” 作为协议。
为 FastCGI、uwsgi、SCGI、memcached 或 gRPC 设置负载平衡时,请分别使用 fastcgi_pass、uwsgi_pass、scgi_pass、memcached_pass 和 grpc_pass 指令。

二、负载均衡的多种策略

1.轮询(Round Robin):默认策略,将请求按顺序分配到不同的服务器上。
2.最少连接(Least Connections):将请求分配到连接数最少的服务器上。
3.IP 哈希(IP Hash):将请求的 IP 地址作为哈希键,根据哈希值分配到对应的服务器上,
4.加权负载平衡(Weighted Load Balancing):将请求按照预设的权重分配到不同的服务器上,权重越高的服务器获得的请求越多。
5.URL 哈希(URL Hash):将请求的 URL 地址作为哈希键,根据哈希值分配到对应的服务器上,确保相同的 URL 地址的请求分配到同一台服务器上。

1.轮询(Round Robin)

在轮询算法中,多个目标按照固定的顺序依次接收请求或任务。每当一个新的请求或任务到来时,轮询算法会将其分配给下一个目标,直到所有目标都接收到请求或任务,然后再从头开始。

要使用轮询策略将请求分配到不同的服务器上,可以在upstream块中制定round-robin策略:

代码如下(示例):

upstream backend 
  server 192.168.60.1;
  server 192.168.60.2;
  server 192.168.60.3;


server 
  listen 80;
  server_name example.com;

  location / 
    # 指定使用backend代理请求
    proxy_pass http://backend;
  

在这个例子中,upstream块定义了3个后端服务器
这3个服务器会按照默认的轮询策略进行负载均衡。
在server块中,配置了请求转发,所有的请求都会被代理到backend服务器组中的一个服务器上。

2.最少连接(Least Connections)

它将请求分配到连接数最少的服务器上,从而平衡服务器的负载。使用最少连接策略可以避免出现某些服务器负载过重的情况。

在 Nginx 中,可以使用
least_conn 策略来实现最少连接的负载平衡。下面是一个使用
least_conn 策略的例子:

代码如下(示例):

upstream backend 
    least_conn;
    server 192.168.60.1;
    server 192.168.60.2;
    server 192.168.60.3;


server 
    listen 80;
    server_name example.com;

    location / 
        proxy_pass http://backend;
    

在上面的例子中,我们定义了一个名为
backend 的服务器组,使用
least_conn 策略将请求分配到连接数最少的服务器上。我们也可以在每个
server 配置项中设置权重、最大失败次数、失败超时等参数,例如:

upstream backend 
    least_conn;
    server 192.168.60.1 weight=2 max_fails=3 fail_timeout=30s;
    server 192.168.60.2 weight=3 max_fails=2 fail_timeout=20s;
    server 192.168.60.3 max_fails=1 fail_timeout=10s;


server 
    listen 80;
    server_name example.com;

    location / 
        proxy_pass http://backend;
    

在上面的例子中,我们将权重、最大失败次数和失败超时等参数设置在了每个 server 配置项中。这些参数可以根据实际情况进行设置,以达到更好的负载平衡效果。

3.IP 哈希(IP Hash)

IP 哈希(IP Hash)是一种负载均衡策略,它通过对客户端 IP 地址进行哈希运算,将同一个客户端的请求分配到同一台服务器上。使用 IP 哈希策略可以保证同一个客户端的请求始终被分配到同一台服务器上,从而避免因为多台服务器之间的状态不同步而导致的问题。

需要注意的是,使用 IP 哈希策略时,如果服务器组中有服务器被添加或者删除,那么会导致哈希结果发生变化,从而导致之前被分配到该服务器的请求需要重新分配。因此,在使用 IP 哈希策略时需要考虑服务器组的动态变化情况。

下面是一个使用 IP 哈希(IP Hash)策略的 Nginx 配置实例:

upstream backend 
    ip_hash;
    server 192.168.60.1;
    server 192.168.60.2;
    server 192.168.60.3;


server 
    listen 80;
    server_name example.com;

    location / 
        proxy_pass http://backend;
    


在上面的配置中,我们定义了一个名为 backend 的服务器组,使用 ip_hash 策略将同一个客户端的请求分配到同一台服务器上。然后,在一个名为 example.com 的虚拟主机中,我们将所有请求都通过反向代理的方式转发到 backend 服务器组中。
假设客户端 A 的 IP 地址为 192.168.0.1,客户端 B 的 IP 地址为 192.168.0.2,客户端 C 的 IP 地址为 192.168.0.3,则它们的请求分配情况可能如下所示:
客户端 A 的请求被分配到了服务器 192.168.60.1 上;
客户端 B 的请求被分配到了服务器 192.168.60.2 上;
客户端 C 的请求被分配到了服务器 192.168.60.3 上。

注意 如果某个客户端的请求被分配到了某台服务器上,那么这个客户端的所有后续请求都将被分配到同一台服务器上,直到服务器组中的服务器发生变化为止。

4.加权负载平衡(Weighted Load Balancing)

它根据服务器的权重值来分配负载。每个服务器都被分配了一个权重值,权重值越高的服务器分配到的请求越多。

在 Nginx 中,可以使用 upstream 模块中的 server 指令的 weight 参数来设置服务器的权重值。例如:

upstream backend 
    server 192.168.60.1 weight=10;
    server 192.168.60.2 weight=5;
    server 192.168.60.3 weight=3;

server 
    listen 80;
    server_name example.com;

    location / 
        proxy_pass http://backend;
    


在上面的例子中,服务器 192.168.60.1的权重值是
10,而服务器 192.168.60.2的权重值是
5,服务器 192.168.60.3 的权重值是 3。当 Nginx 收到请求时,它会按照负载因子策略,以服务器的权重值来分配请求。具体来说,如果服务器的权重值是 W,那么该服务器被分配到的请求比其他服务器多 W 倍。

需要注意的是,在使用负载因子策略时,服务器的性能和负载应该被准确地估计,以便为服务器分配合适的权重值。否则,如果权重值设置不合理,可能会导致某些服务器的负载过高或过低,从而影响整个系统的性能。

5.URL 哈希(URL Hash)

URL 哈希(URL Hash)是 Nginx 负载均衡中的一种策略,它根据请求的 URL 进行哈希运算,并将结果映射到后端服务器。通过这种方式,可以将同一 URL 的请求都分配到同一个后端服务器上,从而实现会话保持(Session Persistence)的效果。

下面是一个使用 URL 哈希策略的 Nginx 配置示例:

upstream backend 
    hash $request_uri;
    server 192.168.60.1 ;
    server 192.168.60.2 ;
    server 192.168.60.3 ;


server 
    listen 80;
    server_name example.com;
    location / 
        proxy_pass http://backend;
        
    


这里我们使用hash指令将哈希算法设置为URL哈希,$request_uri表示使用请求的URL作为哈希值。然后定义3个后端服务器,分别为192.168.60.1和192.168.60.2和192.168.60.3 。

需要注意的是,使用 URL 哈希策略时,如果后端服务器数量发生变化,会导致哈希映射表的变化,从而可能导致一部分请求需要重新分配到其他服务器上,这可能会影响系统的性能。因此,在使用 URL 哈希策略时,应该根据具体情况进行权衡和选择。

补充: nginx的健康检查

Nginx的健康检查是指Nginx服务器通过定期向后端服务器发送检查请求,检查服务器是否能够正常响应,从而判断服务器的健康状况。健康检查对于负载均衡和高可用性非常重要,因为它可以及时发现故障服务器并将流量从故障服务器转移到正常服务器,以保证服务的可靠性和稳定性。

Nginx提供了两种健康检查的方法:基于HTTP请求的健康检查 基于TCP连接的健康检查

《nginx》四nginx的负载均衡 + keepalived实现nginx的高可用

nginx 在系统中的作用是给系统提供一些负载均衡和动态代理的作用。通过不同轮询到不同服务,即使一台服务器挂掉,也能将请求转发到其他服务器上。

但如果 nginx 挂掉,那此时整个系统就没有入口了,所以,我们需要对 Nginx 做高可用配置。

这里准备两台 Nginx 服务器。

具体的思路是,将两台 Nginx 服务器都设置成一个 虚拟 IP,当 主 Nginx 服务器挂掉之后,当我们再次访问的时候,实际上就是访问我们的 从Nginx服务器来做负载均衡了,整个 IP 切换过程对于用户来说是没有感觉的,这种 工作 IP 地址变化的过程,被称为 IP漂移。
这个 虚拟IP 是由第三方软件提供的,它就是 keepalived 。

Keepalived 提供了两种模式:

  • 1、master->backup模式 : 一旦主库宕机,虚拟ip会自动漂移到从库,当主库修复后,keepalived启动后,还会把虚拟ip抢占过来, 即使设置了非抢占模式(nopreempt)抢占ip的动作也会发生。

  • 2、backup->backup模式 : 一旦主库宕机,虚拟ip会自动漂移到从库上,当原主库恢复和keepalived服务启动后,并不会抢占新主的虚拟ip, 即使是优先级高于从库的优先级别,也不会发生抢占。为了减少ip漂移次数,通常是把修复好的主库当做新的备库。

一、资源配置

  • 1、服务器A:192.168.0.221: nginx + keepalived

  • 2、服务器B:192.168.0.222: nginx + keepalived

  • 3、服务器C:192.168.0.223: tomcat

  • 4、服务器D:192.168.0.224: tomcat

  • 5、【非实际云主机资源】虚拟ip(VIP):192.168.0.200,对外提供服务的ip,也可称作浮动ip

二、服务器A和B的配置和使用

  • 1、主机/etc/keepalived/keepalived.conf
#主机
#检测脚本
vrrp_script chk_http_port 
    script "/usr/local/src/check_nginx.sh" #心跳执行的脚本,检测nginx是否启动
    interval 2                          #(检测脚本执行的间隔,单位是秒)
    weight 2                            #权重

#vrrp 实例定义部分
vrrp_instance VI_1 
    state MASTER            # 指定keepalived的角色,MASTER为主,BACKUP为备
    interface ens33         # 当前进行vrrp通讯的网络接口卡(当前centos的网卡) 用ifconfig查看你具体的网卡
    virtual_router_id 66    # 虚拟路由编号,主从要一致
    priority 100            # 优先级,数值越大,获取处理请求的优先级越高
    advert_int 1            # 检查间隔,默认为1s(vrrp组播周期秒数)
    #授权访问
    authentication 
        auth_type PASS #设置验证类型和密码,MASTER和BACKUP必须使用相同的密码才能正常通信
        auth_pass 1111
    
    track_script 
        chk_http_port            #(调用检测脚本)
    
    virtual_ipaddress 
        192.168.0.200            # 定义虚拟ip(VIP),可多设,每行一个
    

  • 2、备机/etc/keepalived/keepalived.conf
# 备机
#检测脚本
vrrp_script chk_http_port 
    script "/usr/local/src/check_nginx.sh" #心跳执行的脚本,检测nginx是否启动
    interval 2                          #(检测脚本执行的间隔)
    weight 2                            #权重

#vrrp 实例定义部分
vrrp_instance VI_1 
    state BACKUP                        # 指定keepalived的角色,MASTER为主,BACKUP为备
    interface ens33                      # 当前进行vrrp通讯的网络接口卡(当前centos的网卡) 用ifconfig查看你具体的网卡
    virtual_router_id 66                # 虚拟路由编号,主从要一致
    priority 99                         # 优先级,数值越大,获取处理请求的优先级越高
    advert_int 1                        # 检查间隔,默认为1s(vrrp组播周期秒数)
    #授权访问
    authentication 
        auth_type PASS #设置验证类型和密码,MASTER和BACKUP必须使用相同的密码才能正常通信
        auth_pass 1111
    
    track_script 
        chk_http_port                   #(调用检测脚本)
    
    virtual_ipaddress 
        192.168.0.200                   # 定义虚拟ip(VIP),可多设,每行一个
    

  • 3、检测脚本(chmod 775 check_nginx.sh)
#!/bin/bash
#检测nginx是否启动了
A=`ps -C nginx --no-header |wc -l`        
if [ $A -eq 0 ];then    #如果nginx没有启动就启动nginx                        
      systemctl start nginx                #重启nginx
      if [ `ps -C nginx --no-header |wc -l` -eq 0 ];then    #nginx重启失败,则停掉keepalived服务,进行VIP转移
              killall keepalived                    
      fi
fi
  • 4、启动Nginx和keepalived(systemctl start keepalived.service)

注意:有个坑,如果发现你的 nginx 关闭之后脚本不执行的原因

  • a、可能是防火墙的问题
  • b、可用先看下配置中的参数路径,查看脚本可执行权限
  • c、需要关闭selinux,然后重新启动
    #关闭:
    setenforce 0      
    
    #永久关闭:
    sed -i "s/^SELINUX=.*/SELINUX=disabled/g" /etc/selinux/config
    

以上是关于创作赢红包Nginx四——Nginx实现负载均衡的多种策略的主要内容,如果未能解决你的问题,请参考以下文章

《nginx》四nginx的负载均衡 + keepalived实现nginx的高可用

《nginx》四nginx的负载均衡 + keepalived实现nginx的高可用

Nginx反向代理和负载均衡应用实战

Nginx反向代理和负载均衡应用实战

Nginx架构四之七层负载均衡

Nginx---负载均衡和缓存