Haproxy 集群技术
Posted 奋斗的蜗牛灬
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Haproxy 集群技术相关的知识,希望对你有一定的参考价值。
目录
前言
一、常见的Web集群调度器
**目前常见的 Web集群调度器 分为 软件类 和 硬件类: **
-
软件类通常使用开源的:LVS、Haproxy、nginx
- LVS性能最好,但是搭建相对复杂;
- Nginx 的 upstream 模块 支持集群功能,但是对集群节点健康检查功能不强,高并发没有Haproxy好;
-
硬件类一般使用的比较多的是 F5,也有很多人使用梭子鱼、绿盟等国内产品,服务器的品牌有惠普、戴尔、浪潮等。
二、HAProxy 介绍与分析
- HAProxy 是一个使用 C语言编写的自由及开放源代码软件,其提供高可用性、负载均衡,以及基于TCP 和 HTTP 的应用程序代理软件。
- HAProxy 特别适用于负载大的Web站点,这些站点通常又需要会话保持或七层处理。
- HAProxy 运行在硬件上可支持数万计的并发连接的连接请求。并且它的运行模式使得它可以很简单安全的整合进您当前的架构中, 同时可以保护你的web服务器不被暴露到网络上。
LVS在企业应用中抗负载能力很强,但存在不足:
- LVS不支持正则处理,不能实现动静分离;
- 对于大型网站,LVS的实施配置复杂,维护成功相对较高;
HAProxy的主要特性有:
● 可靠性和稳定性非常好,可以与硬件级的F5负载均衡设备相媲美;
● 最高可以同时维护40000-50000个并发连接,单位时间内处理的最大请求数为20000个,最大处理能力可达10Git/s;
● 支持多达8种负载均衡算法,同时也支持会话保持;
● 支持虚机主机功能,从而实现web负载均衡更加灵活;
● 支持连接拒绝、全透明代理等独特的功能;
● 拥有强大的ACL支持,用于访问控制;
● 其独特的弹性二叉树数据结构,使数据结构的复杂性上升到了0(1),即数据的查寻速度不会随着数据条目的增加而速度有所下降;
● 支持客户端的keepalive功能,减少客户端与haproxy的多次三次握手导致资源浪费,让多个请求在一个tcp连接中完成;
● 支持TCP加速,零复制功能,类似于mmap机制;
● 支持响应池(response buffering);
● 支持RDP协议;
● 基于源的粘性,类似nginx的ip_hash功能,把来自同一客户端的请求在一定时间内始终调度到上游的同一服务器;
● 更好统计数据接口,其web接口显示后端集群中各个服务器的接收、发送、拒绝、错误等数据的统计信息;
● 详细的健康状态检测,web接口中有关于对上游服务器的健康检测状态,并提供了一定的管理功能;
● 基于流量的健康评估机制;
● 基于http认证;
● 基于命令行的管理接口;
● 日志分析器,可对日志进行分析。
HAProxy 常见8种负载均衡策略:
● roundrobin:表示简单的轮询。
● static-rr:表示根据权重。
● leastconn:表示最少连接者先处理。
● source:表示根据请求的源IP,类似Nginx的IP_hash机制。
● ri:表示根据请求的URI。
● rl_param:表示根据HTTP请求头来锁定每一次HTTP请求。
● rdp-cookie(name):表示根据据cookie(name)来锁定并哈希每一次TCP请求。
LVS、Nginx、HAproxy的区别:
● LVS基于Linux操作系统实现软负载均衡,而HAProxy和Nginx是基于第三方应用实现的软负载均衡;
● LVS是可实现4层的IP负载均衡技术,无法实现基于目录、URL的转发。而HAProxy和Nginx都可以实现4层和7层技术,HAProxy可提供TCP和HTTP应用的负载均衡综合解决方案;
● LVS因为工作在ISO模型的第四层,其状态监测功能单一,而HAProxy在状监测方面功能更丰富、强大,可支持端口、URL、脚本等多种状态检测方式;
● HAProxy功能强大,但整体性能低于4层模式的LVS负载均衡。
● Nginx主要用于Web服务器或缓存服务器。
三、Haproxy 调度算法原理
Haproxy 支持多种调度算法,最常用的有三种:
RR (Round Robin)
- RR算法是最简单常用的一种算法,即轮询调度;
- A 执行完 B 执行,B 执行完 C 执行,C 执行完 A 执行 …
LC(Least Connections)
- 最小连接数算法,根据后端的节点连接数大小动态分配前端请求。
- 节点A、B、C 链接数分别问 4 6 8,第一个请求会被分到 A上;
- 此算法相比较 rr 算法有很大改进,是目前用到比较多的一种算法;
SH(Source Hashing)
- 基于来源访问调度算法,用于一些有 Session 会话记录在服务器端的场景,可以基于来源的IP、Cookie 等做集群调度;
- 如果用户第一次请求被分配到A,第二次访问还会被指派到A;
- 此调度算法好处是实现会话保持,但某些IP访问量非常大时会引起负载不均衡,部分节点访问量超大,影响业务使用
四、Haproxy 搭建 Web 集群
主机 | 操作系统 | IP地址 | 所需软件包 |
---|---|---|---|
Haproxy-Server | CentOS7 | 192.168.10.101 | haproxy-1.5.19.tar.gz |
Nginx-Server1 | CentOS7 | 192.168.10.10 | nginx-1.12.0.tar.gz |
Nginx-Server2 | CentOS7 | 192.168.10.20 | nginx-1.12.0.tar.gz |
客户端 | Win10 | 192.168.10.200 |
4.1 安装 nginx Server
192.168.10.10、20 安装步骤一样
关闭防护墙
systemctl stop firewalld
setenforce 0
配置本地yum源
vim local.repo
[local]
name=local
baseurl=file:///mnt
enabled=1
gpgcheck=0
使用 rpm 安装 nginx
cat > /etc/yum.repos.d/nginx.repo << 'EOF'
[nginx]
name=nginx repo
baseurl=http://nginx.org/packages/centos/7/$basearch/
gpgcheck=0
EOF
yum install nginx -y
systemctl start nginx.service
systemctl status nginx
启动 nginx 服务
如果启动报这个错,
是因为 httpd 也用的 80 端口,nginx 也用的80 端口,被占用了导致的。
进入 nginx 站点目录, 创建主页文件。
cd /usr/share/nginx/html
ls
50x.html index.html
vim index.html #修改主页文件
4.2 安装 Haproxy 服务
将 软件包放到 /opt/ 目录下
解压,并安装 依赖服务
yum install -y pcre-devel bzip2-devel gcc gcc-c++ make
tar zxvf haproxy-1.5.19.tar.gz
cd haproxy-1.5.19/
make TARGET=linux2628 ARCH=x86_64 #编译时 指定服务架构
make install
参数说明
#使用uname -r查看内核,如:2.6.18-371.el5,此时该参数用TARGET=linux26;kernel大于2.6.28的用TARGET=linux2628
TARGET=linux26 #内核版本
ARCH=x86_64 #系统位数,64位系统
Haproxy 配置
mkdir /etc/haproxy
cp examples/haproxy.cfg /etc/haproxy/
cd /etc/haproxy/
vim haproxy.cfg
global
#4~5行–修改,配置日志记录,local0为日志设备,默认存放到系统日志3
log /dev/log local0 info
log /dev/log local0 notice
#log loghost local0 info
maxconn 4096 #最大连接数,需考虑ulimit-n限制
#8行–注释,chroot运行路径,为该服务自设置的根目录,一般需将此行注释掉
#chroot /usr/share/haproxy
uid 99 #用户UID
gid 99 #用户GID
daemon #守护进程模式
defaults
log global #定义日志为global配置中的日志定义
mode http #模式为http
option httplog #采用http日志格式记录日志
option dontlognull #不记录健康检查日志信息
retries 3 #检查节点服务器失败次数,连续达到三次失败,则认为节点不可用
redispatch #当服务器负载很高时,自动结束当前队列处理比较久的连接
maxconn 2000 #最大连接数
contimeout 5000 #连接超时时间
clitimeout 50000 #客户端超时时间
srvtimeout 50000 #服务器超时时间
#删除下面所有listen项–,添加
listen webcluster 0.0.0.0:80
option httpchk GET /test.html #检查服务器的test.html文件
balance roundrobin #负载均衡调度算法使用轮询算法roundrobin
server inst1 192.168.163.11:80 check inter 2000 fall 3 #定义在线节点
server inst2 192.168.163.12:80 check inter 2000 fall 3
#--参数说明----------------
balance roundrobin #负载均衡调度算法
#轮询算法: roundrobin;最小连接数算法: leastconn;来源访问调度算法: source,类似于nginx的ip_hash
check inter 2000 #表示haproxy服务器和节点之间的一个心跳频率
fall 3 #表示连续三次检测不到心跳频率则认为该节点失效
若节点配置后带有""backup"表示该节点只是个备份节点,只有主节点失效该节点才会上。不携带"backup",表示为主节点,和其它主节点共同提供服务。
cp /opt/haproxy-1.5.19/examples/haproxy.init /etc/init.d/haproxy
cd /etc/init.d/
ll
chmod +x haproxy
chkconfig --add /etc/init.d/haproxy
service haproxy start
ln -s /usr/local/sbin/haproxy /usr/sbin/haproxy
service haproxy start
会发现启动报错,我们看一下错误日志信息 vim /var/log/messages
发现提示没有 /usr/sbin/haproxy 没有这个目录,我们将
4.3 验证
192.168.10.200 访问 安装了 Haproxy 服务的机器 192.168.10.101
就是这里的配置 /etc/haproxy/haproxy.cfg
五、Haproxy 日志定义
- 默认 Haproxy 的日志是输出到系统的 syslog 中,查看起来不是非常方便,为了更好的管理 Haproxy 的日志,我们在生产环境中一般单独定义出来。需要将 Haproxy 的 info 及 notice 日志分别记录到不同的日志文件中。
vim /etc/haproxy/haproxy.cfg
global
log /dev/log local0 info
log /dev/log local0 notice
service haproxy restart
- 需要修改 rsyslog 配置,为了便于管理。将 Haproxy 相关的配置独立定义到haproxy.conf,并放到
/etc/rsyslog.d/
下,rsyslog 启动时会自动加载此目录下的所有配置文件 。
vim /etc/rsyslog.d/haproxy.conf
if ($programname == 'haproxy' and $syslogseverity-text == 'info')
then -/var/log/haproxy/haproxy-info.log
&~
if ($programname == 'haproxy' and $syslogseverity-text == 'notice')
then -/var/log/haproxy/haproxy-notice.log
&~
说明:
这部分配置是将 haproxy 的 info 日志记录到 /var/log/haproxy/haproxy-info.log下,
将 notice 日志记录到 /var/log/haproxy/haproxy-notice.log 下。
“&~” 表示当日志写入到日志文件后,rsyslog 停止处理这个信息。
systemctl restart rsyslog.service
tail -f /var/log/haproxy/haproxy-info.log #查看haproxy的访问请求日志信息
写入到 执行的 /var/log/ 目录下,不会再写入到系统日志文件当中
重新访问服务器,自动生成haproxy目录,或者创建后再访问
可以看到走了集群中 不同的主机。
六、Haproxy参数优化
随着网站负载增加,可能需要对 Haproxy 参数进行优化,优化项如下:
- maxconn:最大连接数,根据应用实际情况进行调整,推荐使用10 240
- daemon:守护进程模式,Haproxy可以使用非守护进程模式启动,建议使用守护进程模式启动
- nbproc:负载均衡的并发进程数,建议与当前服务器CPU核数相等或为其2倍
- retries:重试次数,主要用于对集群节点的检查,如果节点多,且并发量大,设置为2次或3次
- option http-server-close:主动关闭http请求选项,建议在生产环境中使用此选项
- timeout http-keep-alive:长连接超时时间,设置长连接超时时间,可以设置为10s
- timeout http-request: http请求超时时间,建议将此时间设置为5~10s,增加http连接释放速度
- timeout client:客户端超时时间,如果访问量过大,节点响应慢,可以将此时间设置短一些,建议设置为1min左右就可以了
以上是关于Haproxy 集群技术的主要内容,如果未能解决你的问题,请参考以下文章
图解负载均衡 LVSNginx及HAProxy--云平台技术栈14