LVS+Keepalive的高可用群集

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了LVS+Keepalive的高可用群集相关的知识,希望对你有一定的参考价值。

LVS

LVSLinux Virtual Server的简写,意即Linux虚拟服务器,是一个虚拟的服务器集群系统。

 

LVS 简单工作原理:用户请求LVS VIPLVS根据转发方式和算法,将请求转发给后端服务器,后端服务器接受到请求,返回给用户。对于用户来说,看不到WEB后端具体的应用。

 

LVS负载均衡工作原理

实现LVS负载均衡转发方式有三种,分别为NATDRTUN模式

 

LVS NAT原理:类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是各个节点回应客户机的访问出口。服务器节点使用私有IP地址,与负载调度器位于同一物理网络,安全性要优于其他两种方式

 

LVS DR原理:采用半开放的网络结构,与TUN模式的结构类似,但各个节点并不是分散在各地,而是与调度器位于同一个物理网络。负载调度器与各个节点服务器通过本地网络连接,不需要建立专门的IP隧道。

 

LVS TUN原理:采用开放式的网络结构,负载调度器仅仅作为客户机的访问入口,各个节点通过各自的Internet连接直接回应客户机,而不再经过负载调度器。服务器节点分散在互联网的不通位置,具有独立的公网IP地址,通过专用IP隧道与负载调度器相互通信。

 

    以上三种工作模式中,NAT方式只需要一个公网IP地址,从而成为最易用的一种负载均衡模式,安全性也比较好,许多硬件负载均衡设备就是采用这种方式;想比较而言,DR模式和TUN模式的负载能力更加强大,适用范围更广,但节点的安全性要稍微差一些。

 

LVS四种负载调度算法

1)轮询RR将收到的访问请求按照顺序轮流分配给群集中的各个节点(真实服务器),均等地对待每一台服务器,而不管服务器实际的连接数和系统负载。

 

2)加权轮询WRR根据真实服务器的处理能力轮流分配收到的访问请求,调度器可以自动查询各个节点的负载情况,并动态调整其权重。这样可以保证处理能力强的服务承担更多的访问流量。

 

3)最少连接LC根据真实服务器已建立的连接数进行分配,将收到的访问请求优先分配给连接数最少的节点。如果所有的服务器节点性能相近,采用这种方式可以更好地均衡负载。

 

4)加权最少连接WLC在服务器节点的性能差异较大的情况下,可以为真实服务器自动调整权重,权重较高的节点将承担更大比例的活动连接负载。

 

LVS负载均衡实战配置

 

LVS负载均衡技术实现是基于Linux内核模块IPVS,与iptables一样是直接工作在内核中,互联网主流的Linux发行版默认都已经集成了ipvs模块,因此只需安装管理工具ipvsadm

wgethttp://www.linuxvirtualserver.org/software/kernel-2.6/ipvsadm-1.26.tar.gz

tar zxf ipvsadm-1.26.tar.gz

cd ipvsadm-1.26

mkdir /usr/src/linux

ln -s /usr/src/kernels/2.6* /usr/src/linux/

yum install libnl* popt*

rpm -ivhhttp://mirror.centos.org/centos/6/os/x86_64/Packages/popt-static-1.13-7.el6.x86_64.rpm

#需要安装popt-static这个包

make

make install

 

案例:直接路由模式(LVS-DR

1)准备案例环境

        DR模式群集中,LVS负载调度器作为群集的访问入口,但不作为网关使用

 

2)配置负载调度器

         1)配置虚拟IP地址(VIP

                   cd/etc/sysconfig/network-scripts/

                cp ifcfg-eth0 ifcfg-eth0:0

                vim ifcfg-eth0:0

                   DEVICE="eth0:0"

                   ONBOOT="yes"

                   IPADDR="192.168.1.142"

                   NETMASK="255.255.255.0"

         ifupeth0:0

         ifconfigeth0:0

 

也可以这样配置

VIP=192.168.1.142

ifconfig   eth0:0  $VIP netmask  255.255.255.0 broadcast  $VIP

/sbin/route  add -host  $VIP  dev eth0:0

 

         2)配置负载分配策略

                   serviceipvsadm stop

                   ipvsadm-A -t 192.168.1.142:80 -s rr

                   ipvsadm-a -t 192.168.1.142:80 -r 192.168.1.146:80 -g -w 1

                ipvsadm -a -t 192.168.1.142:80 -r192.168.1.124:80 -g -w 1

                   serviceipvsadm save

                   chkconfigipvsadm on

                  

3)配置节点服务器

         使用DR模式时,节点服务器也需要配置VIP地址。

客户端realserver配置VIP脚本:

#!/bin/sh

#LVSClient Server

VIP=192.168.1.142

case $1 in

start)

    ifconfig lo:0 $VIP netmask 255.255.255.0broadcast $VIP

    /sbin/route add -host $VIP dev lo:0

    echo "1">/proc/sys/net/ipv4/conf/lo/arp_ignore

    echo "2">/proc/sys/net/ipv4/conf/lo/arp_announce

    echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore

    echo "2">/proc/sys/net/ipv4/conf/all/arp_announce

    sysctl -p >/dev/null 2>&1

    echo "RealServer Start OK"

    exit 0

;;

stop)

    ifconfig lo:0 down

    route del $VIP >/dev/null 2>&1

    echo "0">/proc/sys/net/ipv4/conf/lo/arp_ignore

    echo "0">/proc/sys/net/ipv4/conf/lo/arp_announce

    echo "0">/proc/sys/net/ipv4/conf/all/arp_ignore

    echo "0">/proc/sys/net/ipv4/conf/all/arp_announce

    echo "RealServer Stoped OK"

    exit 1

;;

*)

    echo "Usage: $0 {start|stop}"

;;

esac

 

 

LVS+Keepalived

LVS+Keepalived负载均衡高可用集群架构适用于千万级并发网站,在互联网企业得到大力的应用,如下为完整LVS+Keepalived企业级配置方法和步骤:

 

wgethttp://www.keepalived.org/software/keepalived-1.2.22.tar.gz

tar zxf keepalived-1.2.2.tar.gz

cd keepalived-1.2.2

./configure --prefix=/ --with-kernel-dir=/usr/src/kernels/2.6.32-431.el6.x86_64

make && make install

chkconfig --add keepalived

chkconfig keepalived on

主调度器配置:

vim /etc/keepalived/keepalived.conf

 

! Configuration File for keepalived

 

global_defs {

  notification_email {

     [email protected]

    [email protected]

    [email protected]

   }

  notification_email_from [email protected]

   smtp_server127.0.0.1

  smtp_connect_timeout 30

   router_idLVS_DEVEL

}

 

#VIP1

vrrp_instance VI_1 {

    state MASTER

    interfaceeth0

   lvs_sync_daemon_inteface eth0

   virtual_router_id 51

    priority 100

    advert_int 5

    nopreempt

   authentication {

       auth_type PASS

       auth_pass 1111

    }

   virtual_ipaddress {

        192.168.1.149

    }

}

 

virtual_server 192.168.1.149 80 {

    delay_loop 6

    lb_algo rr

    lb_kind DR

   persistence_timeout 50

    protocol TCP

 

    real_server192.168.1.146 80 {

        weight 1

       TCP_CHECK {

           connect_port 80

           connect_timeout 3

           nb_get_retry 3

           delay_before_retry 3

        }

    }

 

    real_server192.168.1.124 80 {

        weight 1

       TCP_CHECK {

           connect_port 80

           connect_timeout 3

           nb_get_retry 3

           delay_before_retry 3

        }

    }

}

       

 

service keepalived restart

 

从调度器的配置,只要调整router_id(调度器名称,可以不变),state(热备状态,从是SLAVE,priority(优先级)参数即可,其余内容完全相同。


本文出自 “蜡笔xiao馨” 博客,谢绝转载!

以上是关于LVS+Keepalive的高可用群集的主要内容,如果未能解决你的问题,请参考以下文章

keepalived+lvs实现负责均衡群集

搭建:LVS+Keepalived高可用Web服务群集环境

[Linux]-构建LVS-DR模式+Keepalived高可用群集

LVS-NAT与LVS-DR群集+keepalive部署(含LVS+Keepalived+ipvsadm理论概述)

MySQL+Heartbeat+DRBD+LVS+keepalived实现数据库高可用群集

LVS+Keepalived 高可用群集的介绍和搭建步骤