负载平衡的NAT负载均衡原理

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了负载平衡的NAT负载均衡原理相关的知识,希望对你有一定的参考价值。

参考技术A 负载均衡NAT(Network
Address
Translation网络地址转换)简单地说就是将一个IP地址转换为另一个IP地址,一般用于未经注册的内部地址与合法的、已获注册的Internet
IP地址间进行转换。适用于解决Internet
IP地址紧张、不想让网络外部知道内部网络结构等的场合下。
此种负载均衡是当前多WAN口路由器的带宽汇聚技术基础,以欣向路由器为例:
多WAN路由器实现的是业界先进的动态负载平衡机制,多WAN口动态负载平衡技术可以在使用多条线路的情况下动态分配内网的数据流量,动态的实现带宽汇聚的功能,采用特有的三种负载平衡机制:
a.Session:所有启用的WAN口,采用均分session的方式工作。
如第一个连接session通过WAN1口流出,则下一个session自动选择WAN2流出,第三个session选择WAN3口流出(假设所有WAN口都启用)
这种方式适用于多条相同带宽的线路捆绑时使用。
b.这种方式适用于多条不同带宽的线路能够更好的协同工作。例如:WAN1口接一条512K的ADSL,WAN2口接2M的光纤,这种情况下我们就可以把比例设为1:4,这样能够充分利用两条线路的带宽。
c.Traffic:按数据流量分配负载,系统自动选择流量最小的WAN口作为出口。
此种方式适用于线路不稳定时的多条线路混用的情况。在某一条线路暂时不通或者线路不稳定的情况下会把流量自动分配到另一条稳定的线路上。但在多条线路稳定的情况下不建议使用这种方式。
有了这三种负载平衡使得路由器可以灵活的应对多种线路混用的复杂情况,支持多种线路混接,支持多种协议,能够满足多种复杂应用。

LVS负载均衡群集(NAT模式)

LVS负载均衡群集(NAT模式)

负载均衡群集的原理

企业群集应用概述群集的含义

  • Cluster,集群、群集
  • 由多台主机构成,但对外只表现为一个整体,只提供一个访问入口(域名或lP地址),相当于一台大型计算机。

为什么会有集群

  • 互联网应用中,随着站点对硬件性能、响应速度、服务稳定性、数据可靠性等要求越来越高,单台服务器已经无法满足负载均衡及高可用的要求。

解决方法

  • [ ] 使用价格昂贵的小型机、大型机(花费高)
  • [ ] 使用多台相对廉价的普通服务器构建服务群集(花费低)

通过整合多台服务器,使用LVS来达到服务器的高可用和负载均衡,并以同一个IP地址对外提供相同的服务。
在企业中常用的一种群集技术-----LVS (Linux Virtual Server,Linux虚拟服务器)

企业群集分类

根据群集所针对的目标差异,可分为三种类型

  • 负载均衡群集
  • 高可用群集
  • 高性能运算群集

负载均衡群集(Load Balance Cluster)阿里(SLB)

  • [ ] 提高应用系统的响应能力、尽可能处理更多的访问请求、减少延迟为目标,获得高并发、高负载(LB)的整体性能

  • [ ] LB的负载分配依赖于主节点的分流算法,将来自客户机的访问请求分担给多个服务器节点,从而缓解整个系统的负载压力。例如,"DNS轮询","反向代理"等

高可用群集(High Availability Cluster)

  • [ ] 提高应用系统的可靠性、尽可能地减少中断时间为目标,确保服务的连续性,达到高可用(HA)的容错效果
  • [ ] HA的工作方式包括双工主从两种模式,双工即所有节点同时在线;主从则只有主节点在线,但当出现故障时从节点能自动切换为主节点。例如,"故障切换","双机热备"等

高性能运算群集(High Performance Computer Cluster)

  • [ ] 以提高应用系统的CPU运算速度、扩展硬件资源和分析能力为目标,获得相当于大型、超级计算机的高性能运算(HPC)能力
  • [ ] 高性能依赖于"分布式运算"、"并行计算",通过专用硬件和软件将多个服务器的CPU、内存等资源整合在一起,实现只有大型、超级计算机才具备的计算能力。例如,"云计算","网格计算"等

负载均衡群集架构

负载均衡的结构

第一层,负载调度器(Load Balancer或Director)

访问整个群集系统的唯一入口,对外使用所有服务器共有的VIP地址,也称为群集IP地址。
通常会配置主、备两台调度器实现热备份,当主调度器失效以后能够平滑替换至备用调度器,确保高可用性。

第二层,服务器池(Server Pool)

群集所提供的应用服务、由服务器池承担,其中每个节点具有独立的RIP地址(真实IP),只处理调度器分发过来的客户机请求。
当某个节点暂时失效时,负载调度器的容错机制会将其隔离,等待错误排除以后再重新纳入服务器池

第三层,共享存储(Share Storage)

为服务器池中的所有节点提供稳定、一致的文件存取服务,确保整个群集的统一性
共享存储可以使用NAS设备,或者提供NFS共享服务(一种协议)的专用服务器。

负载均衡群集工作模式分析

  • [ ] 负载均衡群集是目前企业用得最多的群集类型
  • [ ] 群集的负载调度技术有三种工作模式(LVS)
    • 地址转换
    • IP隧道
    • 直接路由

NAT模式

  • [ ] 地址转换
    • Network Address Translation,简称NAT模式
    • 类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,<u>NAT模式的调度器即作为客户机的访问入口,也是各节点回应客户机的访问出口,该调度器负载压力会很大,会成为整个集群的瓶颈</u>
    • 服务器节点使用私有IP地址与负载调度器位于同一个物理网络,安全性要优于其他两种方式

TUN模式

  • [ ] IP隧道
    • lP Tunnel,简称TUN模式
    • 采用开放式的网络结构,负载调度器仅作为客户机的访问入口,各节点通过各自的Internet连接直接回应客户机,而不再经过负载调度器
    • 服务器节点分散在互联网中的不同位置,具有独立的公网IP地址通过专用IP隧道与负载调度器相互通信

DR模式

  • [ ] 直接路由
    • Direct Routing,简称DR模式
    • 采用半开放式的网络结构,与TUN模式的结构类似,但各节点并不是分散在各地,而是与调度器位于同一个物理网络
    • 负载调度器与各节点服务器通过本地网络连接不需要建立专用的IP隧道

关于LVS虚拟服务器

Linux Virtual Server

  • 针对Linux内核开发的负载均衡解决方案
  • 1998年5月,由我国的章文嵩博士创建
  • 官方网站: http://www.linuxvirtualserver.org/
  • LVS 实际上相当于基于IP地址的虚拟化应用, 为基于IP地址和内容请求分发的负载均衡提出了一种高效的解决方法
  • LVS现在已成为Linux内核的一部分,默认编译为ip_vs模块,必要时能够自动调用。在CentOS 7系统中,以下操作可以手动加载ip_vs模块,并查看当前系统中ip_vs模块的版本信息。
#加载ip_va模块
modprobe ip_vs
#确认内核对LVS的支持
cat /proc/net/ip_vs

LVS的负载调度算法

  • 轮询(Round Robin)

    • 将收到的访问请求按照顺序轮流分配给群集中的各节点(真实服务器),均等地对待每一台服务器,而不管服务器实际的连接数和系统负载
  • 加权轮询(Weighted Round Robin)

    • 根据调度器设置的权重值来分发请求,权重值高的节点优先获得任务,分配的请求数越多
    • 保证性能强的服务器承担更多的访问流量
  • 最少连接(Least Connections)
    • 根据真实服务器已建立的连接数进行分配,将收到的访问请求优先分配给连接数最少的节点
  • 加权最少连接(Weighted Least Connections)

    • 在服务器节点的性能差异较大时,可以为真实服务器自动调整权重
    • 性能较高的节点将承担更大比例的活动连接负载
  • 源地址哈希值(source hash)

LVS调度器常见算法(均衡策略)

LVS调度器用的调度方法基本分为两类:
固定调度算法:rr,wrr,dh,sh
rr:轮询算法,将请求依次分配给不同的rs节点,即RS节点中均摊分配。适合于Rs所有节点处理性能接近的情况。
wrr:加权轮训调度,依据不同Rs的权值分配任务。权值较高的Rs将优先获得任务,并且分配到的连接数将比权值低的Rs更多。相同权值的RS得到相同数目的连接数。
dh:目的地址哈希调度(destination hashing)以目的地址为关键字查找一个静态hash表来获得所需RS。
sh:源地址哈希调度(source hashing)以源地址为关键字查找一个静态hash表来获得需要的RS。

动态调度算法:wlc,lc,lblc
wlc:加权最小连接数调度,假设各台RS的权值依次为wi,当前tcp连接数依次为Ti,依次去Ti/wi为最小的Rs作为下一个分配的RS。
lc:最小连接数调度(least-connection),IPVS表存储了所有活动的连接。IB会比较将连接请求发送到当前连接最少的RS。
lblc:基于地址的最小连接数调度(locality-basedleast-connection):将来自同一个目的地址的请求分配给同一台RS,此时这台服务器是尚未满负荷的。否则就将这个请求分配给连接数最小的RS,并以它作为下一次分配的首先考虑。
ipvsadm功能与选项说明
选项 功能
-A 添加虚拟服务器
-D 删除整个虚拟服务器
-s 指定负载调度算法(轮询:rr、加权轮询:wrr、最少连接:lc、加权最少连接:wlc)
-a 表示添加真实服务器(节点服务器)
-d 删除某一个节点
-t 指定 VIP地址及 TCP端口
-r 指定 RIP地址及 TCP端口
-m 表示使用 NAT群集模式
-g 表示使用 DR模式
-i 表示使用 TUN模式
-w 设置权重(权重为 0 时表示暂停节点)
-p 60 表示保持长连接60秒
-l 列表查看 LVS 虚拟服务器(默认为查看所有)
-n 以数字形式显示地址、端口等信息,常与“-l”选项组合使用。ipvsadm -ln

NAT模式 LVS负载均衡群集部署

  • LVS调度器作为Web 服务器池的网关,LVS具有两块网卡,分别连接内外网,使用轮询(rr)调度算法

环境配置

主机 操作系统 IP地址 所需服务
负载调度器 CentOS7 内网关:192.168.80.20;外网关:12.0.0.1 ipvsadm
NFS服务器 CentOS7 192.168.80.30 rpcbind、nfs-utils
Web节点服务器1 CentOS7 192.168.80.40 rpcbind、nfs-utils、httpd
Web节点服务器2 CentOS7 192.168.80.50 rpcbind、nfs-utils、httpd
客户端 Windows7 12.0.0.100

:服务器和客户机的网关都要设置,地址为负载调度器的内外网关地址。(跨网段访问必须要网关)

1.部署共享存储(NFS服务器:192.168.80.30)

systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0

yum -y install nfs-utils rpcbind
systemctl start rpcbind.service
systemctl start nfs.service
systemctl enable nfs.service
systemctl enable rpcbind.service

mkdir /opt/test1 /opt/test2
chmod 777 /opt/test1 /opt/test2
echo this is test1 web! > /opt/test1/index.html
echo this is test2 web! > /opt/test2/index.html

vim /etc/exports
/opt/test1 192.168.80.0/24(rw,sync)
/opt/test2 192.168.80.0/24(rw,sync)

exportfs -rv #发布共享

2.配置节点服务器(192.168.80.40、192.168.80.50)

systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0

yum install httpd -y
systemctl start httpd.service
systemctl enable httpd.service

yum -y install nfs-utils rpcbind

systemctl start rpcbind
systemctl enable rpcbind

showmount -e 192.168.80.30

配置web节点服务器1:192.168.80.40

mount.nfs 192.168.80.30:/opt/test1 /var/www/html
echo this is test1 web! > /var/www/html/index.html

配置web节点服务器2:192.168.80.50

mount.nfs 192.168.80.30:/opt/test2 /var/www/html
echo this is test2 web! > /var/www/html/index.html

3.配置负载调度器

  • 负载调度器:内网关 ens33:192.168.80.20,外网关 ens36:12.0.0.1
systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0


(1)配置SNAT转发规则

vim /etc/sysctl.conf
net.ipv4.ip_forward = 1
或
echo 1 > /proc/sys/net/ipv4/ip_forward
sysctl -p

iptables -t nat -F
iptables -F
iptables -t nat -A POSTROUTING -s 192.168.80.0/24 -o ens36 -j SNAT --to-source 12.0.0.1

(2)加载LVS内核模块

modprobe ip_vs
#加载ip_vs模块
cat /proc/net/ip_vs
#查看ip_vs版本信息
for i in $(ls /usr/lib/modules /$(uname -r)/kernel/net/netfilter/ipvslgrep -o"^[^.]*"); do echo $i; /sbin/modinfo -Ffilename $i >/dev/null 2>&1 && / sbin/modprobe $i;done

(3)安装ipvsadm管理工具

yum -y install ipvsadm

#启动服务前须保存负载分配策略
ipvsadm-save > /etc/sysconfig/ipvsadm
或
ipvsadm --save > /etc/sysconfig/ipvsadm

systemctl start ipvsadm.service

(4)配置负载分配策略(NAT模式只要在服务器上配置,节点服务器不需要特殊配置)

ipvsadm -C                 #清除原有策略

ipvsadm -A -t 12.0.0.1:80 -s rr#可以在后面加-p跟上时间来设定负载均衡的时间
ipvsadm -a -t 12.0.0.1:80 -r 192.168.80.40:80 -m [-w 1]
ipvsadm -a -t 12.0.0.1:80 -r 192.168.80.50:80 -m [-w 1]
ipvsadm                    #启用策略

ipvsadm -ln                #查看节点状态,Masq代表NAT模式

ipvsadm-save > /etc/sysconfig/ipvsadm #保存策略

4.测试结果

在一台IP为12.0.0.100的客户机使用浏览器访问http://12.0.0.1/,不断刷新浏览器测试负载均衡效果,刷新间隔需长点。


总结

ipvs与iptables底层都是用的nat转换技术,都是属于内核态(netfilter)
ipvs转发性能更好一些。因为相对iptables管理的策略更少,而且iptables读取策略是按照规则表从上往下依次读取,而ipvs是直接根据分发策略转发效率可能更好一些
LVS有3种模式(NAT DR IP-TUNNEL)
NAT模式:会把调度器当作客户端访问的入口,也把调度器当作服务器回应客户端的访问出口,调度器将会成为整个负载均衡集群的瓶颈
DR IP-TUNNEL:会把调度器当作客户端访问的入口,调度器会把请求转发给节点服务器,节点服务器回应是直接发送给客户端而不经过调度器
LVS的转发是属于4层转发。就是说基于IP+端口的转发,而且负载均衡性能是最好的
LVS调度算法(调度策略):rr轮询,wrr加权轮询,lc最少连接,wlc加权最少连接,sh源地址哈希,dh目的地址哈希,lblc基于地址的最少连接
要支持LVS的使用得加载ip_vs模块。modprobe ip_vs
ipvs所有模块在/usr/lib/modules/3.10.0-693.el7.x86_64/kernel/net/netfilter/ipvs目录中
可以用ls | grep -o "^[^.]*"去匹配文件名

以上是关于负载平衡的NAT负载均衡原理的主要内容,如果未能解决你的问题,请参考以下文章

Linux——LVS-NAT负载均衡群集原理搭建大白话

LVS负载均衡之NAT模式原理及配置详细流程

负载均衡原理的概述原理解析

lvs负载均衡实践之lvs-nat

移动性负载均衡原理

技术分享|负载均衡原理及其算法实现