LVS负载均衡群集(NAT模式)

Posted Richard_Chiang

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了LVS负载均衡群集(NAT模式)相关的知识,希望对你有一定的参考价值。

LVS负载均衡群集(NAT模式)

负载均衡群集的原理

企业群集应用概述群集的含义

  • Cluster,集群、群集
  • 由多台主机构成,但对外只表现为一个整体,只提供一个访问入口(域名或lP地址),相当于一台大型计算机。

为什么会有集群

  • 互联网应用中,随着站点对硬件性能、响应速度、服务稳定性、数据可靠性等要求越来越高,单台服务器已经无法满足负载均衡及高可用的要求。

解决方法

  • [ ] 使用价格昂贵的小型机、大型机(花费高)
  • [ ] 使用多台相对廉价的普通服务器构建服务群集(花费低)

通过整合多台服务器,使用LVS来达到服务器的高可用和负载均衡,并以同一个IP地址对外提供相同的服务。
在企业中常用的一种群集技术-----LVS (Linux Virtual Server,Linux虚拟服务器)

企业群集分类

根据群集所针对的目标差异,可分为三种类型

  • 负载均衡群集
  • 高可用群集
  • 高性能运算群集

负载均衡群集(Load Balance Cluster)阿里(SLB)

  • [ ] 提高应用系统的响应能力、尽可能处理更多的访问请求、减少延迟为目标,获得高并发、高负载(LB)的整体性能

  • [ ] LB的负载分配依赖于主节点的分流算法,将来自客户机的访问请求分担给多个服务器节点,从而缓解整个系统的负载压力。例如,"DNS轮询","反向代理"等

高可用群集(High Availability Cluster)

  • [ ] 提高应用系统的可靠性、尽可能地减少中断时间为目标,确保服务的连续性,达到高可用(HA)的容错效果
  • [ ] HA的工作方式包括双工主从两种模式,双工即所有节点同时在线;主从则只有主节点在线,但当出现故障时从节点能自动切换为主节点。例如,"故障切换","双机热备"等

高性能运算群集(High Performance Computer Cluster)

  • [ ] 以提高应用系统的CPU运算速度、扩展硬件资源和分析能力为目标,获得相当于大型、超级计算机的高性能运算(HPC)能力
  • [ ] 高性能依赖于"分布式运算"、"并行计算",通过专用硬件和软件将多个服务器的CPU、内存等资源整合在一起,实现只有大型、超级计算机才具备的计算能力。例如,"云计算","网格计算"等

负载均衡群集架构

负载均衡的结构

第一层,负载调度器(Load Balancer或Director)

访问整个群集系统的唯一入口,对外使用所有服务器共有的VIP地址,也称为群集IP地址。
通常会配置主、备两台调度器实现热备份,当主调度器失效以后能够平滑替换至备用调度器,确保高可用性。

第二层,服务器池(Server Pool)

群集所提供的应用服务、由服务器池承担,其中每个节点具有独立的RIP地址(真实IP),只处理调度器分发过来的客户机请求。
当某个节点暂时失效时,负载调度器的容错机制会将其隔离,等待错误排除以后再重新纳入服务器池

第三层,共享存储(Share Storage)

为服务器池中的所有节点提供稳定、一致的文件存取服务,确保整个群集的统一性
共享存储可以使用NAS设备,或者提供NFS共享服务(一种协议)的专用服务器。

负载均衡群集工作模式分析

  • [ ] 负载均衡群集是目前企业用得最多的群集类型
  • [ ] 群集的负载调度技术有三种工作模式(LVS)
    • 地址转换
    • IP隧道
    • 直接路由

NAT模式

  • [ ] 地址转换
    • Network Address Translation,简称NAT模式
    • 类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,<u>NAT模式的调度器即作为客户机的访问入口,也是各节点回应客户机的访问出口,该调度器负载压力会很大,会成为整个集群的瓶颈</u>
    • 服务器节点使用私有IP地址与负载调度器位于同一个物理网络,安全性要优于其他两种方式

TUN模式

  • [ ] IP隧道
    • lP Tunnel,简称TUN模式
    • 采用开放式的网络结构,负载调度器仅作为客户机的访问入口,各节点通过各自的Internet连接直接回应客户机,而不再经过负载调度器
    • 服务器节点分散在互联网中的不同位置,具有独立的公网IP地址通过专用IP隧道与负载调度器相互通信

DR模式

  • [ ] 直接路由
    • Direct Routing,简称DR模式
    • 采用半开放式的网络结构,与TUN模式的结构类似,但各节点并不是分散在各地,而是与调度器位于同一个物理网络
    • 负载调度器与各节点服务器通过本地网络连接不需要建立专用的IP隧道

关于LVS虚拟服务器

Linux Virtual Server

  • 针对Linux内核开发的负载均衡解决方案
  • 1998年5月,由我国的章文嵩博士创建
  • 官方网站: http://www.linuxvirtualserver.org/
  • LVS 实际上相当于基于IP地址的虚拟化应用, 为基于IP地址和内容请求分发的负载均衡提出了一种高效的解决方法
  • LVS现在已成为Linux内核的一部分,默认编译为ip_vs模块,必要时能够自动调用。在CentOS 7系统中,以下操作可以手动加载ip_vs模块,并查看当前系统中ip_vs模块的版本信息。
#加载ip_va模块
modprobe ip_vs
#确认内核对LVS的支持
cat /proc/net/ip_vs

LVS的负载调度算法

  • 轮询(Round Robin)

    • 将收到的访问请求按照顺序轮流分配给群集中的各节点(真实服务器),均等地对待每一台服务器,而不管服务器实际的连接数和系统负载
  • 加权轮询(Weighted Round Robin)

    • 根据调度器设置的权重值来分发请求,权重值高的节点优先获得任务,分配的请求数越多
    • 保证性能强的服务器承担更多的访问流量
  • 最少连接(Least Connections)
    • 根据真实服务器已建立的连接数进行分配,将收到的访问请求优先分配给连接数最少的节点
  • 加权最少连接(Weighted Least Connections)

    • 在服务器节点的性能差异较大时,可以为真实服务器自动调整权重
    • 性能较高的节点将承担更大比例的活动连接负载
  • 源地址哈希值(source hash)

LVS调度器常见算法(均衡策略)

LVS调度器用的调度方法基本分为两类:
固定调度算法:rr,wrr,dh,sh
rr:轮询算法,将请求依次分配给不同的rs节点,即RS节点中均摊分配。适合于Rs所有节点处理性能接近的情况。
wrr:加权轮训调度,依据不同Rs的权值分配任务。权值较高的Rs将优先获得任务,并且分配到的连接数将比权值低的Rs更多。相同权值的RS得到相同数目的连接数。
dh:目的地址哈希调度(destination hashing)以目的地址为关键字查找一个静态hash表来获得所需RS。
sh:源地址哈希调度(source hashing)以源地址为关键字查找一个静态hash表来获得需要的RS。

动态调度算法:wlc,lc,lblc
wlc:加权最小连接数调度,假设各台RS的权值依次为wi,当前tcp连接数依次为Ti,依次去Ti/wi为最小的Rs作为下一个分配的RS。
lc:最小连接数调度(least-connection),IPVS表存储了所有活动的连接。IB会比较将连接请求发送到当前连接最少的RS。
lblc:基于地址的最小连接数调度(locality-basedleast-connection):将来自同一个目的地址的请求分配给同一台RS,此时这台服务器是尚未满负荷的。否则就将这个请求分配给连接数最小的RS,并以它作为下一次分配的首先考虑。
ipvsadm功能与选项说明
选项 功能
-A 添加虚拟服务器
-D 删除整个虚拟服务器
-s 指定负载调度算法(轮询:rr、加权轮询:wrr、最少连接:lc、加权最少连接:wlc)
-a 表示添加真实服务器(节点服务器)
-d 删除某一个节点
-t 指定 VIP地址及 TCP端口
-r 指定 RIP地址及 TCP端口
-m 表示使用 NAT群集模式
-g 表示使用 DR模式
-i 表示使用 TUN模式
-w 设置权重(权重为 0 时表示暂停节点)
-p 60 表示保持长连接60秒
-l 列表查看 LVS 虚拟服务器(默认为查看所有)
-n 以数字形式显示地址、端口等信息,常与“-l”选项组合使用。ipvsadm -ln

NAT模式 LVS负载均衡群集部署

  • LVS调度器作为Web 服务器池的网关,LVS具有两块网卡,分别连接内外网,使用轮询(rr)调度算法

环境配置

主机 操作系统 IP地址 所需服务
负载调度器 CentOS7 内网关:192.168.80.20;外网关:12.0.0.1 ipvsadm
NFS服务器 CentOS7 192.168.80.30 rpcbind、nfs-utils
Web节点服务器1 CentOS7 192.168.80.40 rpcbind、nfs-utils、httpd
Web节点服务器2 CentOS7 192.168.80.50 rpcbind、nfs-utils、httpd
客户端 Windows7 12.0.0.100

:服务器和客户机的网关都要设置,地址为负载调度器的内外网关地址。(跨网段访问必须要网关)

1.部署共享存储(NFS服务器:192.168.80.30)

systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0

yum -y install nfs-utils rpcbind
systemctl start rpcbind.service
systemctl start nfs.service
systemctl enable nfs.service
systemctl enable rpcbind.service

mkdir /opt/test1 /opt/test2
chmod 777 /opt/test1 /opt/test2
echo this is test1 web! > /opt/test1/index.html
echo this is test2 web! > /opt/test2/index.html

vim /etc/exports
/opt/test1 192.168.80.0/24(rw,sync)
/opt/test2 192.168.80.0/24(rw,sync)

exportfs -rv #发布共享

2.配置节点服务器(192.168.80.40、192.168.80.50)

systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0

yum install httpd -y
systemctl start httpd.service
systemctl enable httpd.service

yum -y install nfs-utils rpcbind

systemctl start rpcbind
systemctl enable rpcbind

showmount -e 192.168.80.30

配置web节点服务器1:192.168.80.40

mount.nfs 192.168.80.30:/opt/test1 /var/www/html
echo this is test1 web! > /var/www/html/index.html

配置web节点服务器2:192.168.80.50

mount.nfs 192.168.80.30:/opt/test2 /var/www/html
echo this is test2 web! > /var/www/html/index.html

3.配置负载调度器

  • 负载调度器:内网关 ens33:192.168.80.20,外网关 ens36:12.0.0.1
systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0


(1)配置SNAT转发规则

vim /etc/sysctl.conf
net.ipv4.ip_forward = 1
或
echo 1 > /proc/sys/net/ipv4/ip_forward
sysctl -p

iptables -t nat -F
iptables -F
iptables -t nat -A POSTROUTING -s 192.168.80.0/24 -o ens36 -j SNAT --to-source 12.0.0.1

(2)加载LVS内核模块

modprobe ip_vs
#加载ip_vs模块
cat /proc/net/ip_vs
#查看ip_vs版本信息
for i in $(ls /usr/lib/modules /$(uname -r)/kernel/net/netfilter/ipvslgrep -o"^[^.]*"); do echo $i; /sbin/modinfo -Ffilename $i >/dev/null 2>&1 && / sbin/modprobe $i;done

(3)安装ipvsadm管理工具

yum -y install ipvsadm

#启动服务前须保存负载分配策略
ipvsadm-save > /etc/sysconfig/ipvsadm
或
ipvsadm --save > /etc/sysconfig/ipvsadm

systemctl start ipvsadm.service

(4)配置负载分配策略(NAT模式只要在服务器上配置,节点服务器不需要特殊配置)

ipvsadm -C                 #清除原有策略

ipvsadm -A -t 12.0.0.1:80 -s rr#可以在后面加-p跟上时间来设定负载均衡的时间
ipvsadm -a -t 12.0.0.1:80 -r 192.168.80.40:80 -m [-w 1]
ipvsadm -a -t 12.0.0.1:80 -r 192.168.80.50:80 -m [-w 1]
ipvsadm                    #启用策略

ipvsadm -ln                #查看节点状态,Masq代表NAT模式

ipvsadm-save > /etc/sysconfig/ipvsadm #保存策略

4.测试结果

在一台IP为12.0.0.100的客户机使用浏览器访问http://12.0.0.1/,不断刷新浏览器测试负载均衡效果,刷新间隔需长点。


总结

ipvs与iptables底层都是用的nat转换技术,都是属于内核态(netfilter)
ipvs转发性能更好一些。因为相对iptables管理的策略更少,而且iptables读取策略是按照规则表从上往下依次读取,而ipvs是直接根据分发策略转发效率可能更好一些
LVS有3种模式(NAT DR IP-TUNNEL)
NAT模式:会把调度器当作客户端访问的入口,也把调度器当作服务器回应客户端的访问出口,调度器将会成为整个负载均衡集群的瓶颈
DR IP-TUNNEL:会把调度器当作客户端访问的入口,调度器会把请求转发给节点服务器,节点服务器回应是直接发送给客户端而不经过调度器
LVS的转发是属于4层转发。就是说基于IP+端口的转发,而且负载均衡性能是最好的
LVS调度算法(调度策略):rr轮询,wrr加权轮询,lc最少连接,wlc加权最少连接,sh源地址哈希,dh目的地址哈希,lblc基于地址的最少连接
要支持LVS的使用得加载ip_vs模块。modprobe ip_vs
ipvs所有模块在/usr/lib/modules/3.10.0-693.el7.x86_64/kernel/net/netfilter/ipvs目录中
可以用ls | grep -o "^[^.]*"去匹配文件名

以上是关于LVS负载均衡群集(NAT模式)的主要内容,如果未能解决你的问题,请参考以下文章

LVS-NAT模式的负载均衡群集

LVS负载均衡集群(NAT模式部署)!

LVS负载均衡集群(NAT模式部署)!

构建基于地址转换(LVS—NAT)模式的负载均衡群集

LVS 负载均衡群集—— NAT (地址转换)模式

LVS负载均衡群集DR模式