LVS负载均衡和nat模式的实操

Posted 遙遙背影暖暖流星

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了LVS负载均衡和nat模式的实操相关的知识,希望对你有一定的参考价值。

一、企业群集应用概述

1、群集的含义

①、Cluster、集群、群集
②、由多台主机构成,但对外只表现为一个整体,只提供一个访问入口(域名与IP地址),相当于一台大型计算机。

集群的含义:一组通过高速网络互联的计算组,并以单一系统的模式加以管理
将很多服务器集中起来一起,提供同一种服务,在客户端看来就象是只有一个服务器
可以在付出较低成本的情况下获得在性能、可靠性、灵活性方面的相对较高的收益
任务调度是集群系统中的核心技术

2、问题

①、互联网应用中,随着站点对硬件性能、响应速度、服务稳定性、数据可靠性等要求越来越高,单台服务器已经无法满足负载均衡及高可用性的要求。

3、解决方法

①、使用价格昂贵的小型机、大型机
②、使用多台相对廉价的普通服务器构建服务集群

通过整合多台服务器,使用LVS来达到服务器的高可用和负载均衡,并且同一个IP地址对外提供相同的服务。
在企业中常用的一种集群技术——LVS(Linux Virtual Server,Linux虚拟服务器)

总结:

lvs服务器在集群中器调度任务的作用,用来转发数据包实现负载均衡(区别于nginx代理服务器的再次访问),可以把lvs服务器看成一个特殊的路由器

二、集群的分类

1、根据群集所针对的目标差异,可分为三种类型
①、负载均衡群集LB
#客户端负载在计算机集群中尽可能平均分摊

②、高可用群集HA
#避免单点故障,当一个系统发生故障时,可以快速迁移

③、高性能运算群集HPC
#通过集群开发并行应用程序,解决复杂的科学问题

三、负载均衡群集架构

1、负载均衡的结构
第一层,负载调度器(Load Balancer或Director)(前端:负载均衡层)
访问整个群集系统的唯一入口, 对外使用所有服务器共有的VIP地址,也称为群集IP地址。通常会配置主、备两台调度器实现热备份,当主调度器失效以后能够平滑替换至备用调度器,确保高可用性。

第二层,服务器池(Server Pool) (中间:服务器 群组层)
群集所提供的应用服务、由服务器池承担,其中每个节点具有独立的RIP地址(真实IP),只处理调度器分发过来的客户机请求。当某个节点暂时失效时,负载调度器的容错机制会将其隔离,等待错误排除以后再重新纳入服务器池。

第三层,共享存储(Share Storage) (底端:数据共享存储层)
为服务器池中的所有节点提供稳定、一致的文件存取服务, 确保整个群集的统一性共享存储可以使用NAS设备,或者提供NFS共享服务的专用服务器。

术语拓展:
Director Server:调度服务器-将负载分发到Real Server的服务器
Real Server :真实服务器
-真正提供应用服务的服务器
VIP:虚拟IP地址
-公布给用户访问的虚拟IP地址
RIP:真实IP地址
-集群节点上使用的IP地址
DIP:调度器连接节点服务器的IP地址

四、LVS负载均衡群集工作模式分析

1、负载均衡群集是目前企业用得最多的群集类型

2、群集的负载调度技术有3种工作模式

(1)地址转换(NAT模式)

● Network Address Translation,简称NAT模式
● 类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是各节点回应客户机的访问出口
● 服务器节点使用私有IP地址,与负载调度器位于同一个物理网络,安全性要优于其他两种方式

优点:集群中的物理服务器可以使用任何支持TCP/IP操作系统,只有负载均衡器需要一个合法的IP地址。
缺陷:在LVS(NAT)模式的集群环境中,由于所有的数据请求及响应的数据包都需要经过LVS调度器转发,如果后端服务器的数量大于10台,则调度器就会成为整个集群环境的瓶颈

(2)IP隧道(TUN模式)

不常用
● 采用开放式的网络结构,负载调度器仅作为客户机的访问入口,各节点通过各自的Internet连接直接回应客户机,而不再经过负载调度器
● 服务器节点分散在互联网中的不同位置,具有独立的公网IP地址,通过专用IP隧道与负载调度器相互通信
#总结:简单而言,负载均衡器和服务器不在同一个区域(可能一个在上海,一个在深圳),负载均衡器转发数据包到真实服务器上时,需要的跨网段,所以将其做成隧道模式;返回包不经过lvs均衡器

优点:负载均衡器只负责将请求包分发给后端节点服务器,而RS将应答包直接发给用户。所以,减少了负载均衡器的大量数据流动,负载均衡器不再是系统的瓶颈,就能处理很巨大的请求量,这种方式,一台负载均衡器能够为很多RS进行分发。而且跑在公网上就能进行不同地域的分发。
缺陷:在LVS(TUN)模式下,由于需要在LVS调度器与真实服务器之间创建隧道连接,这同样会增加服务器的负担。 这种方式需要所有的服务器支持”IP Tunneling”(IP Encapsulation)协议,服务器可能只局限在部分Linux系统上。

(3)直接路由(DR模式)

● Direct Routing,简称DR模式
● 采用半开放式的网络结构,与TUN模式的结构类似,但各节点并不是分散在各地,而是与调度器位于同一个物理网络
● 负载调度器与各节点服务器通过本地网络连接,不需要建立专用的IP隧道

优点:和TUN(隧道模式)一样,负载均衡器也只是分发请求,应答包通过单独的路由方法返回给客户端。与VS-TUN相比,VS-DR这种实现方式不需要隧道结构,因此可以使用大多数操作系统做为物理服务器。
缺陷:后端服务器和LVS调度器必须在同一机房

三种模式对比总结
性能:DR> TUN > NAT > FULL NAT
注意:DR模式的效率很高,但是配置稍微复杂一点,因此对于访问量不是特别大的公司可以用haproxy/nginx取代。日1000-2000W PV或者并发请求1万一下都可以考虑用haproxy/nginx。

(文献可参考:https://zhuanlan.zhihu.com/p/372073885)

3、ip_ vs模块的版本信息

LVS现在已成为Linux内核的一部分,默认编译为ip_ vs模块,必要时能够自动调用。在CentOS 7系统中,以下操作可以手动加载ip_ vs模块,并查看当前系统中ip_ vs模块的版本信息。
modprobe ip_vs
cat /proc/net/ip_vs #确认内核对LVS的支持

4、LVS的负载调度算法

目前lvs 可实现的调度算法有10中,常用的有以下4种

4.1、轮询(Round Robin)

● 将收到的访问请求按照顺序轮流分配给群集中的各节点(真实服务器) ,均等地对待每一台服务器 ,而不管服务器实际的连接数和系统负载
简称rr

4.2、加权轮询 (Weighted Round Robin)

● 根据调度器设置的权重值来分发请求,权重值高的节点优先获得任务,分配的请求数越多
● 保证性能强的服务器承担更多的访问流量
简称wrr

4.3、最少连接 (Least Connections )

● 根据真实服务器已建立的连接数进行分配,将收到的访问请求优先分配给连接数最少的节点(谁少给谁)
简称lc

4.4、加权最少连接(Weighted Least Connections )

● 在服务器节点的性能差异较大时,可以为真实服务器自动调整权重
● 性能较高的节点将承担更大比例的活动连接负载
简称wlc
阿里云支持轮询和最小连接

五、LVS群集创建与管理

①、步骤
1、创建虚拟服务器
2、添加、删除服务器节点
3、查看群集及节点情况
4、保存负载分配策略
LVS的管理工具是ipvsadm
②、ipvsadm工具选项说明
-A	添加虚拟服务器
-D	删除整个虚拟服务器
-E  修改虚拟服务器
-C 清空所有
-l	列表查看 LVS 虚拟服务器 (默认为查看所有) 
-s	指定负载调度算法 (轮询:rr、加权轮询: wrr、最少连接: lc、加权最少连接: wlc )
-a	表示添加真实服务器 (节点服务器)
-d	删除某一个节点
-e  修改真实虚拟器
-t	指定 VIP地址及 TCP端口
-r	指定 RIP地址及 TCP端口
-m	表示使用 NAT群集模式.
-g	表示使用 DR模式
-i	表示使用 TUN模式
-w	设置权重 (权重为 0 时表示暂停节点)
-p 60	表示保持长连接60-n	以数字形式显示地址、端口等信息,常与 “-l” 选项组合使用。ipvsadm -ln

需要通过ipvsadm 管理lvs

yum -y install ipvsadm
[root@manager scripts]# ipvsadm -A -t 192.168.100.8:80 -s lc
# -A 创建,-t指定协议tcp,-s指定调度算法
[root@manager scripts]# 
[root@manager scripts]# ipvsadm -L
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  manager:http lc

六、lvs负载均衡集群部署-NAT 模式

实验环境:

LVS负载调度器:ens33:192.168.100.254 ens36:192.168.99.100(vmnet1)
Web 节点服务器1:192.168.100.5
Web 节点服务器2:192.168.100.6
NFS服务器:192.168.100.7
客户端(win10):192.168.99.10 (Vmnet1)

PS:
① win10虚拟机(客户端)网关设置为192.168.99.100 (指向lvs调度器上第一个网卡)
② web服务器 网关设置为 192.168.100.254(指向第二块网卡)

hostnamectl set-hostname nfs
su

hostnamectl set-hostname web1
su

hostnamectl set-hostname web2
su

hostnamectl set-hostname lvs
su

1、部署共享存储(NFS服务器:192.168.100.7)

关闭防火墙

systemctl stop firewalld.service 
systemctl disable firewalld.service 
setenforce 0

下载和启动nfs服务

yum install -y nfs-utils rpcbind

systemctl start nfs.service 
systemctl start rpcbind.service
systemctl enable nfs.service 
systemctl enable rpcbind.service

挂载目录

mkdir /opt/kgc /opt/accp
chmod 777 /opt/kgc /opt/accp/

vim /etc/exports      #用户可以把需要共享的文件系统直接编辑到/etc/exports文件中,这样当NFS服务器重新启动时系统就会自动读取/etc/exports 文件
/opt/kgc 192.186.100.0/24(rw,sync,no_root_squash)
/opt/accp 192.186.100.0/24(rw,sync,no_root_squash)

#发布共享
exportfs -rv
showmount -e  #检查nfs是否设置成功

[root@nfs ~]# exportfs -rv
exporting 192.186.100.0/24:/opt/accp
exporting 192.186.100.0/24:/opt/kgc
[root@nfs ~]# showmount -e
[root@nfs ~]# showmount -e
Export list for master:
/opt/accp 192.186.100.0/24
/opt/kgc  192.186.100.0/24

2、配置节点服务器(后端服务器)

192.168.100.6、192.168.100.5

systemctl stop firewalld.service 
systemctl disable firewalld.service 
setenforce 0

#修改web的网卡网关为LVS服务器,设置静态路由

TYPE=Ethernet
PROXY_METHOD=none
BROWSER_ONLY=no
BOOTPROTO=static   #设置静态
DEFROUTE=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_FAILURE_FATAL=no
IPV6_ADDR_GEN_MODE=stable-privacy
NAME=ens33
UUID=a84eac34-bb29-4fe8-a4c6-def7c2ace97f
DEVICE=ens33
ONBOOT=yes
IPADDR=192.168.100.5       #另一台为192.168.100.6    
GATEWAY=192.168.100.254    #网关指向lvs调度器的内网ip
NETMASK=255.255.255.0



yum install -y httpd
systemctl start httpd.service 
systemctl enable httpd.service

yum install -y nfs-utils rpcbind

systemctl start rpcbind.service
systemctl enable rpcbind.service

showmount -e 192.168.100.7  #检查nfs是否设置成功

2.1设置web1目录

mount.nfs 192.168.100.7:/opt/kgc /var/www/html/

echo '<h1>this is gcc<h1>' > /var/www/html/index.html   #设置页面

vim /etc/fstab   #磁盘被手动挂载之后都必须把挂载信息写入/etc/fstab这个文件中,否则下次开机启动时仍然需要重新挂载
192.168.100.7:/opt/gcc /var/www/html nfs defaults,_netdev 0 0

mount -a




2.2、设置web2的目录


mount.nfs 192.168.100.7:/opt/benet /var/www/html/

echo 'this is benet' > /var/www/html/index.html
vim /etc/fstab 
192.168.100.7:/opt/benet /var/www/html nfs defaults,_netdev 0 0

mount -a

3、配置负载调度器LVS(ens33:192.168.100.254 ens36:192.168.99.100)

systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0 #关闭防火墙

[root@lvs ~]# cp /etc/sysconfig/network-scripts/ifcfg-ens33 /etc/sysconfig/network-scripts/ifcfg-ens36
[root@lvs ~]# vim /etc/sysconfig/network-scripts/ifcfg-ens36
TYPE="Ethernet"
PROXY_METHOD="none"
BROWSER_ONLY="no"
BOOTPROTO="static"    #设置为静态ip
DEFROUTE="yes"
IPV4_FAILURE_FATAL="no"
IPV6INIT="yes"
IPV6_AUTOCONF="yes"
IPV6_DEFROUTE="yes"
IPV6_FAILURE_FATAL="no"
IPV6_ADDR_GEN_MODE="stable-privacy"
NAME="ens36"
DEVICE="ens36"
ONBOOT="yes"      #开机自动识别
IPADDR=192.168.99.100      #这个ip不为其设置网关
NETMASK=255.255.255.0

[root@lvs ~]# vim /etc/sysconfig/network-scripts/ifcfg-ens33
TYPE=Ethernet
PROXY_METHOD=none
BROWSER_ONLY=no
BOOTPROTO=static   #设置为静态
DEFROUTE=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_FAILURE_FATAL=no
IPV6_ADDR_GEN_MODE=stable-privacy
NAME=ens33
UUID=d84cd1bf-01dc-4841-bf64-f65375841a81
DEVICE=ens33
ONBOOT=yes
IPADDR=192.168.100.254    #ip地址为web1与2的网关
NETMASK=255.255.255.0     #不设置网关
~                           


同时将编辑器上的模式都改为nat模式(该模式默认没有网关)

(1)、配置SNAT转发规则

#加载路由器功能
vim /etc/sysctl.conf

net.ipv4.ip_forward=1

sysctl -p

iptables -t nat -F
iptables -F     #清除规则    

#配置nat地址转换

iptables -t nat -A POSTROUTING -s 192.168.100.0/24 -o ens36 -j SNAT --to-source 192.168.99.100

#nat:修改数据包中的源、目标IP地址或端口
POSTROUTING: 在进行路由判断之"后"所要进行的规则(SNAT/MASQUERADE)
PREROUTING: 在进行路由判断之"前"所要进行的规则(DNAT/REDIRECT)
-A: 在规则链的末尾加入新规则
-s:匹配来源地址IP/MASK.
-o 网卡名称匹配从这块网卡流出的数据
-i 网卡名称匹配从这块网卡流入的数据
-j 控制类型

(2)、加载LVS内核模块

[root@lvs network-scripts]# modprobe ip_vs  # #手动加载ip_vs模块
[root@lvs network-scripts]# cat /proc/net/ip_vs   # #查看ip_vs版本信息
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port Forward Weight ActiveConn InActConn
[root@lvs network-scripts]# 


(3)、安装ipvsadm管理工具

[root@lvs network-scripts]# yum install -y ipvsadm  #安装ipvsadm

[root@lvs network-scripts]# ipvsadm-save > /etc/sysconfig/ipvsadm   ##注意:启动服务前必须保存负载分配策略,否则将会报错
[root@lvs network-scripts]# 
[root@lvs network-scripts]# systemctl start ipvsadm.service



(4)、配置负载分配策

(NAT模式只要在服务器上配置,节点服务器不需要特殊配置)

写成脚本

[root@lvs network-scripts]# vim /opt/nat.sh
#!/bin/bash
ipvsadm -C
ipvsadm -A -t 192.168.99.100:80 -s rr
ipvsadm -a -t 192.168.99.100:80 -r 192.168.100.5:80 -m -w 1
ipvsadm -a -t 192.168.99.100:80 -r 192.168.100.6:80 -m -w 1
ipvsadm
~            


#解析
-A	添加虚拟服务器
-s	指定负载调度算法 (轮询:rr、加权轮询: wrr、最少连接: lc、加权最少连接: wlc )
-a	表示添加真实服务器 (后端节点服务器)
-t	指定 VIP地址及 TCP端口
-m	表示使用 NAT群集模式.
-w	设置权重 (权重为 0 时表示暂停节点)

(5)启动策略

cd /opt

[root@lvs opt]# chmod +x nat.sh 
[root@lvs opt]# ./nat.sh 

IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  lvs:http rr
  -> 192.168.100.5:http           Masq    1      0          0         
  -> 192.168.100.6:http           Masq    1      0          0    
[root@lvs opt]# ipvsadm-save > /etc/sysconfig/ipvsadm   #保存策略    
备注:其他在实际生产中可能用到的指令

```cpp
ipvsadm -d -t 192.168.100.10:80 -r 192.168.226.129:80 -m -w 1     #删除群集中某一节点服务器
ipvsadm -D -t 192.168.100.10:80     #删除整个虚拟服务器
systemctl stop ipvsadm     #停止服务(清除策略)
systemctl start ipvsadm    #启动服务(重建规则)
ipvsadm-restore > /etc/sysconfig/ipvsadm      #恢复LVS策略

(6)测试(192.168.99.12)

设置ip

在win10上使用浏览器访问192.168.99.100,刷新浏览器测试负载均衡
PS:刷新间隔时间需要稍长一点


总结:lvs上的两种相对比较麻烦,网卡编辑器是全局的,所有vmnet8也选为net模式,就可以单独设置网关了

ipvsadm规则组好写成脚本
lvs的nat模式其瓶颈是中间的lvs调度器。

以上是关于LVS负载均衡和nat模式的实操的主要内容,如果未能解决你的问题,请参考以下文章

lvs DR模式负载均衡实操

LVS负载均衡NAT模式

负载均衡集群相关LVS介绍LVS调度算法LVS NAT模式搭建

群集 之 LVS负载均衡(NAT模式)

LVS负载均衡群集部署之——NAT模式的介绍及搭建步骤

LVS负载均衡NAT模式