LVS-NAT模式负载均衡的实现

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了LVS-NAT模式负载均衡的实现相关的知识,希望对你有一定的参考价值。

LVS-NAT架构图解:

  技术分享                         

 

一.名词解释:

DSDirector Server,前端的LVS Server

RSReal Server;后端的WebServer

VIP:外网, 172.16.31.50

DIP:内网,192.168.31.254

RS1RIP 192.168.31.1

RS2RIP 192.168.31.2



前端是一个Director Server,有两个网卡,一个是公网(面向互联网);一个是连接各RS

外部网络是桥接网卡,内部网络是内部网络网卡连接的;

后端是Real Server,尽可能使用私有地址,网关应指向DIP,将RS做成web服务器

 

二.LVS-NAT模型实现负载均衡的工作方式,

   NAT模型其实就是通过网络地址转换来实现负载均衡的,它的工作方式几乎跟DNAT一模一样的,目前的DNAT只能转发到一个目标地址,早期的DNAT是可以将请求转发到多个目标的,LVS出现之后就将此功能从DNAT种去掉了,下面来说说NAT模型的工作方式或者说NAT模型是怎么实现负载均衡的,根据上图,

1.客户端请求VIP(也可以说是CIP请求VIP);

2.Director Server 收到用户的请求后,发现源地址为CIP请求的目标地址为VIP,那么DorectorServer会认为用户请求的是一个集群服务,那么Director Server 会根据此前设定好的调度算法将用户请求负载给某台Real Server ,假如说此时Director Server 根据调度算法的结果会将请求分摊到Real Server 1上去,那么Director Server 会将用户的请求报文中的目标地址,从原来的VIP改为Real Server 1IP,然后再转发给Real Server 1;

3.此时Real Server 1收到一个源地址为CIP目标地址为自己的请求,那么Real Server1处理好请求后会将一个源地址为自己目标地址为CIP的数据包通过Director Server 发出去;

4.Driector Server收到一个源地址为RealServer 1 IP 目标地址为CIP的数据包,此时Driector Server 会将源地址修改为VIP,然后再将数据包发送给用户;

 

三.LVS用户空间工具ipvsadm的使用方法

    其实LVS的本身跟iptables很相似,而且连命令的使用格式都很相似,其实LVS是根据iptables的框架开发的,那么LVS的本身分成了两个部分,第一部分是工作在内核空间的一个IPVS的模块,其实LVS的功能都是IPVS模块实现的;第二部分是工作在用户空间的一个用来定义集群服务的一个工具ipvsadm, 这个工具的主要作用是将管理员定义的集群服务列表传送给工作在内核空间中的IPVS模块,下面来简单的介绍下ipvsadm命令的用法

 

1.定义集群服务类的

#ipvsadm

-A 添加一个集群服务

-D 删除一个集群服务

-E 修改一个集群服务

    -t VIP:端口   定义集群服务的类型为TCP的某个端口

    -u VIP:端口   定义集群服务的类型为UDP的某个端口

    -f 防火墙标记  定义集群服务的类型为防火墙标记

          -s 调度算法  指定集群服务的调度算法


2.定义集群节点类的

#ipvsadm

-a 添加一个节点到集群服务

-d 从集群服务中删除一个节点

-e 修改集群服务器中的节点

-r 节点IP:端口   定义节点的IP及类型

-m   定义为NAT模型

-g   定义为DR模型

-i   定义为TUN模型

-w 权重   定义服务器的权重

-p --persistent [timeout] 持久稳固的服务。这个选项的意思是来自同一个客
户的多次请求,将被同一台真实的服务器处理。timeout 的默认值为300 秒。      


3.其他

#ipvsadm

-L 查看

   -n --numeric       输出IP 地址和端口的数字形式

   -c --connection   显示LVS 目前的连接 如:ipvsadm -L -c

  --stats          显示统计信息

-C 清空所有规则

-S 保存规则

-R 恢复规则

四.配置IP地址:

1.LVS Server的IP配置:

VIP:

[[email protected] network-scripts]# cat ifcfg-eth0

DEVICE="eth0"

BOOTPROTO="static"

HWADDR="08:00:27:85:86:F7"

NM_CONTROLLED="yes"

ONBOOT="yes"

TYPE="Ethernet"

IPADDR=172.16.31.50

NETMASK=255.255.0.0

GATEWAY=172.16.0.1

 

DIP:

[[email protected] network-scripts]# cat ifcfg-eth1

DEVICE="eth1"

BOOTPROTO="static"

HWADDR="08:00:27:3F:47:E1"

NM_CONTROLLED="yes"

ONBOOT="yes"

TYPE="Ethernet"

IPADDR=192.168.31.254

NETMASK=255.255.255.0

GATEWAY=172.16.0.1

 

2.Web Server服务器IP配置

Node1的web服务器IP设置:

[[email protected] network-scripts]# cat ifcfg-eth0

DEVICE="eth0"

BOOTPROTO="static"

HWADDR="08:00:27:23:2F:87"

NM_CONTROLLED="yes"

ONBOOT="yes"

TYPE="Ethernet"

IPADDR=192.168.31.1

NETMASK=255.255.0.0

GATEWAY=172.16.0.1

 

Node2的web服务器IP设置:

[[email protected] network-scripts]# cat ifcfg-eth0

DEVICE="eth0"

BOOTPROTO="static"

HWADDR="08:00:27:E0:A1:67"

NM_CONTROLLED="yes"

ONBOOT="yes"

TYPE="Ethernet"

IPADDR=192.168.31.2

NETMASK=255.255.255.0

GATEWAY=172.16.0.1

 

五.配置LVS Server启用转发功能

[[email protected] ~]# vim /etc/sysctl.conf

net.ipv4.ip_forward = 1

 

[[email protected] ~]# sysctl -p

net.ipv4.ip_forward = 1

net.ipv4.conf.default.rp_filter = 1

net.ipv4.conf.default.accept_source_route =0

kernel.sysrq = 0

kernel.core_uses_pid = 1

net.ipv4.tcp_syncookies = 1

error: "net.bridge.bridge-nf-call-ip6tables"is an unknown key

error:"net.bridge.bridge-nf-call-iptables" is an unknown key

error:"net.bridge.bridge-nf-call-arptables" is an unknown key

kernel.msgmnb = 65536

kernel.msgmax = 65536

kernel.shmmax = 68719476736

kernel.shmall = 4294967296

 

服务器之间的时间尽量一致


六.启动默认http服务器

Node1和Node2:

[[email protected] ~]# service httpd start

Starting httpd:                                           [  OK  ]

[[email protected] ~]# service httpd start

Starting httpd:                                            [  OK  ]

设置好测试网页:

[[email protected] ~]# echo "node1.stu31.com"> /var/www/html/index.html

[[email protected] ~]# echo"node2.stu31.com" > /var/www/html/index.html

 

七.启用LVS-NAT模式的负载均衡

1.采用RR调度方法:

[[email protected] ~]# ipvsadm -A -t 172.16.31.50:80-s rr

[[email protected] ~]# ipvsadm -a -t 172.16.31.50:80-r 192.168.31.1 -m

[[email protected] ~]# ipvsadm -a -t 172.16.31.50:80-r 192.168.31.2 –m

 

2.浏览器测试:


技术分享 


 技术分享

多刷新几次可以观察出可以轮流查询的!


3.采用WRR加权调度算法:

[[email protected] ~]# ipvsadm -E -t 172.16.31.50:80-s wrr

[[email protected] ~]# ipvsadm -e -t 172.16.31.50:80-r 192.168.31.2 -m -w 2

 

浏览器测试:

可以看出前两次查询都是node2服务器返回的结果

[[email protected] ~]# ipvsadm -L -n

IP Virtual Server version 1.2.1 (size=4096)

Prot LocalAddress:Port Scheduler Flags

 -> RemoteAddress:Port          Forward Weight ActiveConn InActConn

TCP 172.16.31.50:80 wrr

 -> 192.168.31.1:80             Masq    1      0         1        

 -> 192.168.31.2:80             Masq    2      0         3

 

我们将其中一台web服务器关闭

[[email protected] ~]# service httpd stop

Stopping httpd:                                            [  OK  ]

 

浏览器刷新测试:


[[email protected] ~]# ipvsadm -L -n

IP Virtual Server version 1.2.1 (size=4096)

Prot LocalAddress:Port Scheduler Flags

 -> RemoteAddress:Port          Forward Weight ActiveConn InActConn

TCP 172.16.31.50:80 wrr

 -> 192.168.31.1:80             Masq    1      0         2        

 -> 192.168.31.2:80             Masq    2      0         9

由此可以知道LVS Server无法监控后端服务器的健康状态。


本文出自 “眼眸刻着你的微笑” 博客,请务必保留此出处http://dengaosky.blog.51cto.com/9215128/1964516

以上是关于LVS-NAT模式负载均衡的实现的主要内容,如果未能解决你的问题,请参考以下文章

LVS负载均衡!LVS-NAT模式部署!

LVS-NAT模式的负载均衡群集

lvs负载均衡实践之lvs-nat

企业——LVS-NAT模式负载均衡构建配置

LVS负载均衡之二:LVS-NAT搭建web群集

LVS负载均衡群集—地址转换模式(LVS-NAT)