LB负载均衡中LVS搭建DR + keepalived配置

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了LB负载均衡中LVS搭建DR + keepalived配置相关的知识,希望对你有一定的参考价值。

前面的lvs虽然已经配置成功也实现了负载均衡,但是我们测试的时候发现,当某台real server把httpd进程停掉,那么director照样会把请求转发过去,这样就造成了某些请求不正常。所以需要有一种机制用来检测real server的状态,这就是keepalived。

它的作用除了可以检测rs状态外,还可以检测备用director的状态,也就是说keepalived可以实现ha集群的功能,当然了也需要一台备用director.备用director也需要安装一下keepalived软件 


注意:前面虽然我们已经配置过一些操作,但是下面我们使用keepaliave操作和之前的

操作是有些冲突的,所以若是之前配置过DR,请首先做如下操作:   

  dr上执行:

$ipv -C     清空规则 (ipvsadm -C )

ifconfig eth0:0  down     

yum install -y keepalived    (需要epel-release 支持)

编辑配置    vim /etc/keepalived/keepalived.conf   //清空原来配置加入如下:


vrrp_instance VI_1 {

    state MASTER   #备用服务器上为 BACKUP

    interface eth0

    virtual_router_id 51

    priority 100  #备用服务器上为90

    advert_int 1

    authentication {

        auth_type PASS

        auth_pass 1111

    }

    virtual_ipaddress {

        192.168.239.110

    }

}

virtual_server 192.168.239.110 80 {                    #规定一个vip

    delay_loop 6                  #(每隔10秒查询realserver状态)

    lb_algo wlc                  #(lvs 算法,也可以是wrr)

    lb_kind DR                  #(Direct Route)

    persistence_timeout 0        #(同一IP的连接60秒内被分配到同一台,常连接

realserver)

    protocol TCP                #(用TCP协议检查realserver状态)

    real_server 192.168.239.141 80 {

        weight 100               #(权重)

        TCP_CHECK {

        connect_timeout 10       #(10秒无响应就超时)

        nb_get_retry 3

        delay_before_retry 3

        connect_port 80

        }

    }

    real_server 192.168.239.142 80 {

        weight 100

        TCP_CHECK {

        connect_timeout 10

        nb_get_retry 3

        delay_before_retry 3

        connect_port 80

        }

     }

}


然后,两个rs上执行 /usr/local/sbin/lvs_dr_rs.sh 脚本

最后,director上启动keepalived服务    /etc/init.d/keepalived start    

另外,需要注意的是,启动keepalived服务会自动生成vip和ipvsadm规则,不需要再去执行上面提到的/usr/local/sbin/lvs_dr.sh 脚本  

ip addr 可以看到生成vip   eth0有两条IP多出一条IP

技术分享

ipvsadm -ln  查看规则  (有两台real)

测试   curl 192.168.239.110    分发两台real每台一次

测试keepalived 检测功能,停掉real2的nginx    /etc/init.d/nginx stop

       curl 192.168.239.110   只会发给real1    也可以查看日志 /var/log/messages

  重新启动 real2 测试会发现,请求都会发给real2,因为在停掉real2的过程中我们把请求都发给了real1,我们使用的是最小连接算法(wlc ),会先补齐real2应有的请求再分配


keepalived              主从配置(从IP 192.168.239.144)

备用director也需要安装一下keepalived软件 

yum install -y keepalived    (需要epel-release 支持)      

yum install -y  ipvsadm        

复制主director的配置文件,从director的配置文件只需要修改

 scp /etc/keepalived/keepalived.conf 192.168.239.144:/etc/keepalived/

state MASTER  修改成 state BACKUP

priority 100 修改成 priority 90

配置完keepalived后,需要开启端口转发(主从都要做)  由于DR模式脚本执行过才未执行

echo 1 > /proc/sys/net/ipv4/ip_forward

/etc/init.d/keepalived start 


ipvsadm -ln  查看规则  (同样有两台real 规则)

 ip addr 查看有没有生成vip ,有生成即成功


也可以通过vip转换来查看主从

主停掉keepalived  /etc/init.d/keepalived stop

主ip add 虚拟IP已经没有,从上ip add 虚拟IP已经接管 

主启动keepalived /etc/init.d/keepalived start

主ip add 虚拟IP已经接管,从上ip add 虚拟IP已经释放

也可以通过抓包来分析主从

 主和从执行    tcpdump -nn host IP and not port 22  

 再浏览器访问 192.168.239.110


本文出自 “11657691” 博客,请务必保留此出处http://11667691.blog.51cto.com/11657691/1784534

以上是关于LB负载均衡中LVS搭建DR + keepalived配置的主要内容,如果未能解决你的问题,请参考以下文章

负载均衡集群介绍(LB集群) LVS介绍LVS NAT模式LVS DR模式

LB负载均衡中LVS搭建DR模式

LVS DR模式负载均衡搭建keepalived高可用+LVS负载均衡配合

负载均衡(LVS DR模式搭建,DR只用一个公网ip,Keepalived+LVS DR)

LVS-DR+keepalived 搭建web高可用负载均衡

LVS-DR+keepalived 搭建web高可用负载均衡