LVS+Keepalived 搭建高可用群集(DR模式)

Posted 奋斗的蜗牛灬

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了LVS+Keepalived 搭建高可用群集(DR模式)相关的知识,希望对你有一定的参考价值。


前言

https://blog.csdn.net/weixin_51326240/article/details/113148776?spm=1001.2014.3001.5501

  • 企业应用中,单台服务器承担应用存在单点故障的危险;
  • 负载均衡器 单点故障一旦发生,企业服务将发生中断,造成极大的危害与损失。

通常 LVS 集群 与 keepalived 配合使用 解决这个问题。

一、LVS+Keepalived 高可用群集

1、LVS

  • Linux虚拟服务器(Linux Virtual Server)
  • LVS 实际上相当于 基于IP地址 的虚拟化应用, 为基于IP地址和内容请求分发的负载均衡提出了一种高效的解决方法。

2、Keepalived

Keepalived 是专为LVS和HA设计的一款健康检查工具

  • 支持故障自动切换(Failover)
  • 支持节点健康状态检查(Health Checking)
  • 判断LVS负载调度器、节点服务器的可用性,当 master 主机出现故障及时切换到 backup 节点保证业务正常,当 master 故障主机恢复后将其重新加入群集并且业务重新切换回 master 节点。

工作原理

  • Keepalived 是一个基于VRRP协议来实现的LVS服务高可用方案,可以解决静态路由出现的单点故障问题。

  • 在一个LVS服务集群中通常有主服务器(MASTER)和备份服务器(BACKUP)两种角色的服务器,但是对外表现为一个虚拟IP,主服务器会发送VRRP通告(心跳通告)信息给备份服务器,当备份服务器收不到VRRP消息的时候,即主服务器异常的时候,备份服务器就会接管虚拟IP,继续提供服务,从而保证了高可用性。

 Keepalived的作用是检测服务器的状态,如果有一台web服务器宕机,或工作出现故障,Keepalived将检测到,并将有故障的服务器从系统中剔除,同时使用其他服务器代替该服务器的工作,当服务器工作正常后Keepalived自动将服务器加入到服务器群中,这些工作全部自动完成,不需要人工干涉,需要人工做的只是修复故障的服务器。

3、Keepalived实现原理剖析

  • keepalived 采用 VRRP 热备份协议 实现 Linux 服务器的多机热备功能
  • VRRP(虚拟路由冗余协议)是针对路由器的一种备份解决方案。
    • 由多台路由器组成一个热备份组,通过共用的虚拟IP地址对外提供服务;
    • 每个热备组内同时只有一台主路由器提供服务,其他路由器处于冗余状态;
    • 若当前在线的路由器失效,则其他路由器会根据设置的优先级自动接替虚拟IP地址,继续提供服务。

问:

Keepalived 通过什么判断哪台主机为主服务器,通过什么方式配置浮动IP?
答案:

  • Keepalived 首先做初始化先检查 state 状态,master 为主服务器,backup 为备服务器。
  • 然后再对比所有服务器的 priority,谁的优先级高谁是最终的主服务器。
  • 优先级高的服务器会通过ip命令为自己的电脑配置一个提前定义好的浮动IP地址。

二、keepalived 配置实例

双机热备的故障切换是由虚拟IP地址的漂移来实现,适用于各种应用服务器。

环境准备:
本次配置是在 上篇博客 DR 实现负载均衡的基础上做的。所以重点是如何配置 keepalived

主机操作系统IP地址所需软件服务
主DR 负载调度器CentOS7ens33:192.168.10.30
ens33:0 (VIP):192.168.10.100
ipvsadm
备DR 负载调度器CentOS7ens33:192.168.10.31
ens33:0 (VIP):192.168.10.100
ipvsadm
NFS 服务器CentOS7192.168.10.101rpcbind、nfs-utils
Web节点服务器1CentOS7ens33:192.168.10.10
lo:0 (VIP):192.168.10.100
rpcbind、nfs-utils、httpd
Web节点服务器2CentOS7ens33:192.168.10.20
lo:0 (VIP):192.168.10.100
rpcbind、nfs-utils、httpd
客户端Windows10192.168.10.200

2.1 配置负载调度器(主、备相同)

下面是两个调度器一样的配置
(1)关防火墙,加载ip_vs模块

systemctl stop firewalld.service 
systemctl disable firewalld.service 
setenforce 0

modprobe ip_vs
cat /proc/net/ip_vs
yum -y install ipvsadm

在这里插入图片描述

(2)调整 proc 响应参数

vim /etc/sysctl.conf
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0

sysctl -p

(3)配置负载分配策略
这里有点轻微的区别,源IP 是本机的 ip

主负载调度器:192.168.10.30

ipvsadm-save > /etc/sysconfig/ipvsadm
systemctl start ipvsadm.service

ipvsadm -C
#这里-t指定的虚拟地址为本机ens33网卡ip
ipvsadm -A -t 192.168.10.30:80 -s rr
ipvsadm -a -t 192.168.10.30:80 -r 192.168.10.10:80 -g
ipvsadm -a -t 192.168.10.30:80 -r 192.168.10.20:80 -g
ipvsadm

ipvsadm -ln

备负载调度器:192.168.10.31

ipvsadm-save > /etc/sysconfig/ipvsadm
systemctl start ipvsadm.service

ipvsadm -C

ipvsadm -A -t 192.168.10.31:80 -s rr
ipvsadm -a -t 192.168.10.31:80 -r 192.168.10.10:80 -g
ipvsadm -a -t 192.168.10.31:80 -r 192.168.10.20:80 -g

ipvsadm -ln

2.2 配置keeplived

主负载调度器1:192.168.10.30
备负载调度器2:192.168.10.31

yum -y install keepalived
cd /etc/keepalived/

#备份配置文件
cp keepalived.conf keepalived.conf.bak

vim /etc/keepalived/keepalived.conf
vim keepalived.conf
......
#定义全局参数
global_defs {

#10行修改,邮件服务指向本地
smtp_server 127.0.0.1

#12行修改,指定服务器(路由器)的名称,主备服务器名称须不同,主为LVS_01,备为LVS_02
router_id LVS_01

#14行修改;加注释;vrrp_strict:严格遵守VRRP协议。下列情况将会阻止启动Keepalived:1. 没有VIP地址。2. 单播邻居。3. 在VRRP版本2中有IPv6地址。
#vrrp_strict

}
#定义VRRP热备实例参数
vrrp_instance VI_1 {

#20行修改;指定热备状态,主为MASTER,备为BACKUP
state MASTER

#21行修改;指定承载vip地址的物理接口
interface ens33

#22行修改;指定虚拟路由器的ID号,每个热备组保持一致
virtual_router_id 10

#取消抢占配置,默认是随时进行抢占,配置后可防止 keepalived脑裂情况
#nopreempt

#23行修改;指定优先级,数值越大优先级越高,主为100,备为90
priority 100
#通告间隔秒数(心跳频率)
advert_int 1
#定义认证信息,每个热备组保持一致
authentication {
#认证类型
auth_type PASS

#27行修改,指定验证密码,主备服务器保持一致
auth_pass 123456
}

#指定群集 vip 虚拟地址
virtual_ipaddress {
192.168.10.100
}
}

#34行修改,指定虚拟服务器地址(VIP)、端口,定义虚拟服务器和Web服务器池参数
virtual_server 192.168.10.100 80 {
#健康检查的间隔时间()
delay_loop 6
#指定调度算法,轮询(rr)
lb_algo rr
#37行修改,指定群集工作模式,直接路由(DR)
lb_kind DR
#连接保持时间()
persistence_timeout 50
#应用服务采用的是TCP协议
protocol TCP

#41行修改,指定第一个Web节点的地址、端口
real_server 192.168.10.10 80 {
#节点的权重
weight 1

#43行删除,添加以下健康检查方式
	    TCP_CHECK {
	    #添加检查的目标端口
		connect_port 80
		#添加连接超时(秒)
		connect_timeout 3
		#添加重试次数
		nb_get_retry 3
		#添加重试间隔
		delay_before_retry 4
	}
}

#添加第二个 Web节点的地址、端口
real_server 192.168.10.20 80 {
    weight 1
    TCP_CHECK {
		connect_port 80
		connect_timeout 3
		nb_get_retry 3
		delay_before_retry 4
	}
}
}
#删除后面多余的配置


systemctl start keepalived
#查看虚拟网卡vip
ip addr show dev ens33

ip a

192.168.10.30 主 MASTER 配置
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
备 192.168.10.31 配置,优先级比主的低就行

在这里插入图片描述
分别执行 systemctl restart keepalived.service
备 执行 ip -a
在这里插入图片描述
如果此时 主执行 分别执行 systemctl stop keepalived.service
备 再执行 ip -a
在这里插入图片描述
客户端一直都能够访问,负载均衡功能也能实现
在这里插入图片描述

以上是关于LVS+Keepalived 搭建高可用群集(DR模式)的主要内容,如果未能解决你的问题,请参考以下文章

LVS + Keepalived 搭建高可用的负载均衡群集

Keepalived+Haproxy搭建高可用Web群集

keepalived+Haproxy搭建高可用Web群集

keepalived+Haproxy搭建高可用Web群集

使用keepalived搭建高可用的LVS-DR集群

玩转Linux之搭建高可用负载均衡群集综合案例