MYSQL高可用集群架构-MHA架构
Posted cool小伙
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了MYSQL高可用集群架构-MHA架构相关的知识,希望对你有一定的参考价值。
1 MHA简介:MHA(Master High Availability)目前在mysql高可用方面是一个相对成熟的解决方案,它由日本DeNA公司youshimaton(现就职于Facebook公司)开发,是一套优秀的作为MySQL高可用性环境下故障切换和主从提升的高可用软件。在MySQL故障切换过程中,MHA能做到在0~30秒之内自动完成数据库的故障切换操作,并且在进行故障切换的过程中,MHA能在最大程度上保证数据的一致性,以达到真正意义上的高可用。
该软件由两部分组成:MHA Manager(管理节点)和MHA Node(数据节点)。MHA Manager可以单独部署在一台独立的机器上管理多个master-slave集群,也可以部署在一台slave节点上。MHA Node运行在每台MySQL服务器上,MHA Manager会定时探测集群中的master节点,当master出现故障时,它可以自动将最新数据的slave提升为新的master,然后将所有其他的slave重新指向新的master。整个故障转移过程对应用程序完全透明。
在MHA自动故障切换过程中,MHA试图从宕机的主服务器上保存二进制日志,最大程度的保证数据的不丢失,但这并不总是可行的。例如,如果主服务器硬件故障或无法通过SSH访问,MHA没法保存二进制日志,只进行故障转移而丢失了最新的数据。使用MySQL 5.5的半同步复制,可以大大降低数据丢失的风险。MHA可以与半同步复制结合起来。如果只有一个slave已经收到了最新的二进制日志,MHA可以将最新的二进制日志应用于其他所有的slave服务器上,因此可以保证所有节点的数据一致性。
目前MHA主要支持一主多从的架构,要搭建MHA,要求一个复制集群中必须最少有三台数据库服务器,一主二从,即一台充当master,一台充当备用master,另外一台充当从库,因为至少需要三台服务器,出于机器成本的考虑,淘宝网也在该基础上进行了改造,目前淘宝TMHA已经支持一主一从。MHA 适合任何存储引擎, 只要能主从复制的存储引擎它都支持,不限于支持事物的 innodb 引擎。
官方介绍:https://code.google.com/p/mysql-master-ha/
(1)从宕机崩溃的master保存二进制日志事件(binlog events);
(2)识别含有最新更新的slave;
(3)应用差异的中继日志(relay log)到其他的slave;
(4)应用从master保存的二进制日志事件(binlog events);
(5)提升一个slave为新的master;
(6)使其他的slave连接新的master进行复制。
MHA软件由两部分组成,Manager工具包和Node工具包,具体的说明如下。
Manager工具包主要包括以下几个工具:
masterha_check_ssh 检查MHA的SSH配置状况
masterha_check_repl 检查MySQL复制状况
masterha_manger 启动MHA
masterha_check_status 检测当前MHA运行状态
masterha_master_monitor 检测master是否宕机
masterha_master_switch 控制故障转移(自动或者手动)
masterha_conf_host 添加或删除配置的server信息
Node工具包(这些工具通常由MHA Manager的脚本触发,无需人为操作)主要包括以下几个工具:
save_binary_logs 保存和复制master的二进制日志
apply_diff_relay_logs 识别差异的中继日志事件并将其差异的事件应用于其他的slave
filter_mysqlbinlog 去除不必要的ROLLBACK事件(MHA已不再使用这个工具)
purge_relay_logs 清除中继日志(不会阻塞SQL线程)
注意:
为了尽可能的减少主库硬件损坏宕机造成的数据丢失,因此在配置MHA的同时建议配置成MySQL 5.5的半同步复制。关于半同步复制原理各位自己进行查阅。(不是必须)
2 部署MHA
接下来部署MHA,具体的搭建环境如下(所有操作系统均为CentOS7.4 64bit):
IP地址
主机名
角色
软件
10.10.10.67
xuegod67.cn
manager
mha4mysql-managermha4mysql-node
10.10.10.68
xuegod68.cn
master
mha4mysql-node
10.10.10.69
xuegod69.cn
Slave1,Candicate master
mha4mysql-node
10.10.10.70
xuegod70.cn
Slave2
mha4mysql-node
其中master对外提供写服务,备选Candicate master(实际为slave1)提供读服务,slave2也提供读服务,一旦master宕机,将会把备选master提升为新的master,slave指向新的master
(1)在所有节点安装MHA node所需的perl模块(DBD:MySQL),安装脚本如下:
先要安装epel源,
Centos7安装源:rpm –ivh http://dl.fedoraproject.org/pub/epel/7/x86_64/e/epel-release-7-10.noarch.rpm
yum clean all
yum list
使用yum安装
全部依赖
所有节点安装yum -y install perl-DBD-MySQL perl-Config-Tiny perl-Log-Dispatch perl-Parallel-ForkManager
(2)上传MHA相关包,在所有的节点安装mha-node:
rpm -ivh mha4mysql-node-0.57-0.el7.noarch.rpm
安装完成后会在/usr/bin/目录下生成以下脚本文件:
[root@xuegod67 bin]# pwd
/usr/bin/
[root@xuegod67 bin]# ll app* filter* purge* save*
-r-xr-xr-x 1 root root 15498 Apr 20 10:05 apply_diff_relay_logs
-r-xr-xr-x 1 root root 4807 Apr 20 10:05 filter_mysqlbinlog
-r-xr-xr-x 1 root root 7401 Apr 20 10:05 purge_relay_logs
-r-xr-xr-x 1 root root 7263 Apr 20 10:05 save_binary_logs
2.2 安装MHA Manager
MHA Manager中主要包括了几个管理员的命令行工具,例如master_manger,master_master_switch等。MHA Manger也依赖于perl模块,具体如下:
(1)安装MHA Node软件包之前需要安装依赖。我这里使用yum完成,首先epel源要安装。注意:刚才我们已经配置epel源。
(2)安装MHA Manager。首先安装MHA Manger依赖的perl模块(我这里使用yum安装):
[root@xuegod67 ~]# yum install perl-DBD-MySQL perl-Config-Tiny perl-Log-Dispatch perl-Parallel-ForkManager perl-Time-HiRes perl-ExtUtils-CBuilder perl-ExtUtils-MakeMaker perl-CPAN -y
2.3 安装MHA Manager软件包:
[root@xuegod67 ~]# rpm -ivh mha4mysql-manager-0.57-0.el7.noarch.rpm
安装完成后会在/usr/bin目录下面生成以下脚本文件,前面已经说过这些脚本的作用,这里不再重复
[root@xuegod67 ~]# ll /usr/bin/mast*
-rwxr-xr-x 1 root root 1995 12月 13 2012 /usr/bin/masterha_check_repl
-rwxr-xr-x 1 root root 1779 12月 13 2012 /usr/bin/masterha_check_ssh
-rwxr-xr-x 1 root root 1865 12月 13 2012 /usr/bin/masterha_check_status
-rwxr-xr-x 1 root root 3201 12月 13 2012 /usr/bin/masterha_conf_host
-rwxr-xr-x 1 root root 2517 12月 13 2012 /usr/bin/masterha_manager
-rwxr-xr-x 1 root root 2165 12月 13 2012 /usr/bin/masterha_master_monitor
-rwxr-xr-x 1 root root 2373 12月 13 2012 /usr/bin/masterha_master_switch
-rwxr-xr-x 1 root root 3879 12月 13 2012 /usr/bin/masterha_secondary_check
-rwxr-xr-x 1 root root 1739 12月 13 2012 /usr/bin/masterha_stop
2.4 配置所有主机相互SSH登录无密码验证(使用key登录,工作中常用)。但是有一点需要注意:不能禁止 password 登陆,否则会出现错误
ssh免密码登录
[root@xuegod67 ~]# ssh-keygen -t rsa
Generating public/private rsa key pair.
Enter file in which to save the key (/root/.ssh/id_rsa): 回车
Enter passphrase (empty for no passphrase): 回车
Enter same passphrase again: 回车
[root@xuegod67 ~]# ssh-copy-id 10.10.10.68
[root@xuegod67 ~]# ssh-copy-id 10.10.10.69
[root@xuegod67 ~]# ssh-copy-id 10.10.10.70
其他主机重复上面操作
2.5 搭建主从复制环境
注意:binlog-do-db 和 replicate-ignore-db 设置必须相同。 MHA 在启动时候会检测过滤规则,如果过滤规则不同,MHA 不启动监控和故障转移。
(1)在xuegod68配置主数据库服务器
创建需要同步的数据库:
mysql> create database HA;
mysql> use HA;
mysql> create table test(id int,name varchar(20));
service mysqld stop
配置my.cnf:
vim /etc/my.cnf
log-bin=mysql-bin-master #启用二进制日志
server-id=1 #本机数据库ID 标示
binlog-do-db=HA #可以被从服务器复制的库。二进制需要同步的数据库名
binlog-ignore-db=mysql #不可以被从服务器复制的库
validate-password=off
重启mysql:
systemctl restart mysqld
授权:
mysql> grant replication slave on *.* to repl@\'10.10.10.%\' identified by \'123456\';
mysql> flush privileges;
查看状态信息:
mysql> show master status;
导出数据库到从服务器(2个从)
mysqldump -uroot -p123456 -B HA >HA.sql
scp HA.sql 10.10.10.69:/root
scp HA.sql 10.10.10.70:/root
(2)在xuegod69导入数据库并配置从服务:
[root@xuegod69 ~]# mysql -uroot -p123456 <HA.sql
配置my.cnf:
vim /etc/my.cnf
log-bin=mysql-slave1 #启用二进制日志
server-id=2 #本机数据库ID 标示
binlog-do-db=HA #可以被从服务器复制的库。二进制需要同步的数据库名
binlog-ignore-db=mysql #不可以被从服务器复制的库
log_slave_updates=1 #只有开启log_slave_updates,从库binlog才会记录主库同步的操作日志
validate-password=off
[root@xuegod69 ~]# systemctl restart mysqld #重启MySQL
mysql> grant replication slave on *.* to \'repl\'@\'10.10.10.%\' identified by \'123456\';
mysql> flush privileges;
建立主从关系
mysql> stop slave;
mysql> change master to master_host=\'10.10.10.68\',master_user=\'repl\',master_password=\'123456\';
(3)在xuegod70导入数据库并配置从服务:
[root@xuegod70 ~]# mysql -uroot -p123456 <HA.sql
配置my.cnf:
vim /etc/my.cnf
log-bin=mysql-slave2 #启用二进制日志
server-id=3 #本机数据库ID 标示
binlog-do-db=HA #可以被从服务器复制的库。二进制需要同步的数据库名
binlog-ignore-db=mysql #不可以被从服务器复制的库
log_slave_updates=1 #只有开启log_slave_updates,从库binlog才会记录主库同步的操作日志
validate-password=off
[root@xuegod70 ~]# systemctl restart mysqld #重启MySQL
mysql> grant replication slave on *.* to \'repl\'@\'10.10.10.%\' identified by \'123456\';
mysql> flush privileges;
建立主从关系
mysql> stop slave;
mysql> change master to master_host=\'10.10.10.68\',master_user=\'repl\',master_password=\'123456\';
mysql> start slave;
(4)两台slave服务器设置read_only(从库对外提供读服务,只所以没有写进配置文件,是因为slave随时会提升为master)
[root@xuegod69~]# mysql -uroot -p123456 -e \'set global read_only=1\'
[root@xuegod70 ~]# mysql -uroot -p123456 -e \'set global read_only=1\'
(5)创建监控用户(在主从上都执行):
mysql> grant all privileges on *.* to \'root\'@\'10.10.10.%\' identified by \'123456\';
mysql> flush privileges;
到这里整个集群环境已经搭建完毕,剩下的就是配置MHA软件了。
2.6 配置MHA
(1)创建MHA的工作目录,并且创建相关配置文件(在软件包解压后的目录里面有样例配置文件)。
[root@ xuegod67 ~]# mkdir -p /etc/masterha
[root@ xuegod67 ~]# mkdir -p /var/log/masterha/app1
[root@ xuegod67 ~]# vim /etc/masterha/app1.cnf
修改app1.cnf配置文件,修改后的文件内容如下(注意,配置文件中的注释需要去掉,我这里是为了解释清楚):
[server default]
manager_workdir=/var/log/masterha/app1 #设置manager的工作目录
manager_log=/var/log/masterha/app1/manager.log #设置manager的日志
master_binlog_dir=/data/mysql #设置master 保存binlog的位置,以便MHA可以找到master的日志,我这里的也就是mysql的数据目录
master_ip_failover_script= /usr/local/bin/master_ip_failover #设置自动failover时候的切换脚本
master_ip_online_change_script= /usr/local/bin/master_ip_online_change #设置手动切换时候的切换脚本
password=123456 #设置MySQL中root用户的密码,这个密码是前文中创建监控用户的那个密码
user=root 设置监控用户root
ping_interval=1 #设置监控主库,发送ping包的时间间隔,默认是3秒,尝试三次没有回应的时候自动进行railover
remote_workdir=/tmp #设置远端MySQL在发生切换时binlog的保存位置
repl_password=123456 #设置复制用户的密码
repl_user=repl #设置复制环境中的复制用户名
report_script=/usr/local/send_report #设置发生切换后发送的报警的脚本
shutdown_script="" #设置故障发生后关闭故障主机脚本(该脚本的主要作用是关闭主机放在发生脑裂,这里没有使用)
ssh_user=root #设置SSH的登录用户名
[server1]
hostname=10.10.10.68
port=3306
[server2]
hostname=10.10.10.69
port=3306
candidate_master=1 #设置为候选master,如果设置该参数以后,发生主从切换以后将会将此从库提升为主库,即使这个主库不是集群中事件最新的slave
check_repl_delay=0 #默认情况下如果一个slave落后master 100M的relay logs的话,MHA将不会选择该slave作为一个新的master,因为对于这个slave的恢复需要花费很长时间,通过设置check_repl_delay=0,MHA触发切换在选择一个新的master的时候将会忽略复制延时,这个参数对于设置了candidate_master=1的主机非常有用,因为这个候选主在切换的过程中一定是新的master
[server3]
hostname=10.10.10.70
port=3306
(2)设置relay log的清除方式(在每个slave节点上)
[root@xuegod69 ~]# mysql -uroot -p123456 -e \'set global relay_log_purge=0\'
[root@xuegod70 ~]# mysql -uroot -p123456 -e \'set global relay_log_purge=0\'
注意:
MHA在发生切换的过程中,从库的恢复过程中依赖于relay log的相关信息,所以这里要将relay log的自动清除设置为OFF,采用手动清除relay log的方式。在默认情况下,从服务器上的中继日志会在SQL线程执行完毕后被自动删除。但是在MHA环境中,这些中继日志在恢复其他从服务器时可能会被用到,因此需要禁用中继日志的自动删除功能。定期清除中继日志需要考虑到复制延时的问题。在ext3的文件系统下,删除大的文件需要一定的时间,会导致严重的复制延时。为了避免复制延时,需要暂时为中继日志创建硬链接,因为在Linux系统中通过硬链接删除大文件速度会很快。(在MySQL数据库中,删除大表时,通常也采用建立硬链接的方式)
(3).检查SSH配置
检查MHA Manger到所有MHA Node的SSH连接状态:
[root@xuegod67~]# masterha_check_ssh --conf=/etc/masterha/app1.cnf
以看见各个节点SSH验证都是OK的。
(4).检查整个复制环境状况。
通过masterha_check_repl脚本查看整个集群的状态
[root@ xuegod67 ~]# masterha_check_repl --conf=/etc/masterha/app1.cnf
MySQL Replication Health is NOT OK! 如果提示这个不OK,说明有问题
MySQL Replication Health is OK. 显示Ok ,正常!
(5).检查MHA Manager的状态:
通过master_check_status脚本查看Manager的状态:
[root@xuegod67 ~]# masterha_check_status --conf=/etc/masterha/app1.cnf
app1 is stopped(2:NOT_RUNNING).
注意:如果正常,会显示"PING_OK",否则会显示"NOT_RUNNING",这代表MHA监控没有开启。
(6).开启MHA Manager监控
[root@ xuegod67 ~]# nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &
[1] 30867
启动参数介绍:
--remove_dead_master_conf 该参数代表当发生主从切换后,老的主库的IP将会从配置文件中移除。
--manger_log 日志存放位置
--ignore_last_failover 在缺省情况下,如果MHA检测到连续发生宕机,且两次宕机间隔不足8小时的话,则不会进行Failover,之所以这样限制是为了避免ping-pong效应。该参数代表忽略上次MHA触发切换产生的文件,默认情况下,MHA发生切换后会在日志目录,也就是上面我设置的/data产生app1.failover.complete文件,下次再次切换的时候如果发现该目录下存在该文件将不允许触发切换,除非在第一次切换后收到删除该文件,为了方便,这里设置为--ignore_last_failover。
查看MHA Manager监控是否正常:
[root@ xuegod67 ~]# masterha_check_status --conf=/etc/masterha/app1.cnf
app1 (pid:20386) is running(0:PING_OK), master:10.10.10.68
可以看见已经在监控了,而且master的主机为10.10.10.68
(7).查看启动日志
复制代码
[root@xuegod67 ~]# tail -n20 /var/log/masterha/app1/manager.log
………………..
…………………
Sun Apr 20 19:12:01 2014 - [info] Ping(SELECT) succeeded, waiting until MySQL doesn\'t respond..
其中"Ping(SELECT) succeeded, waiting until MySQL doesn\'t respond.."说明整个系统已经开始监控了。
(8).关闭MHA Manage监控 关闭很简单,使用masterha_stop命令完成。
[root@xuegod67~]# masterha_stop --conf=/etc/masterha/app1.conf
Stopped app1 successfully.
[1]+ Exit 1 nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover --manager_log=/data/mamanager.log
(9)模拟故障
[root@xuegod67 ~]# tail -f /var/log/masterha/app1/manager.log 打开新窗口观察日志
[root@xuegod68~]# service mysqld stop 模拟主库挂掉
看日志是否切换master成功
我们从日志上可以看到故障切换成功,恭喜你了.新的master是xuegod69.
登陆从服务器xuegod70查看show slave status\\G是否成功切换
小结:
目前高可用方案可以一定程度上实现数据库的高可用,还有其他方案heartbeat+drbd,Cluster、MGR等。这些高可用软件各有优劣。在进行高可用方案选择时,主要是看业务还有对数据一致性方面的要求
3 拓展:
/etc/masterha/app1.cnf 配置文件备份
[server default]
manager_workdir=/var/log/masterha/app1
manager_log=/var/log/masterha/app1/manager.log
master_binlog_dir=/var/lib/mysql
user=root
password=123456
ping_interval=1
remote_workdir=/tmp
repl_user=repl
repl_password=123456
ssh_user=root
[server1]
hostname=10.10.10.68
port=3306
[server2]
hostname=10.10.10.69
port=3306
candidate_master=1
check_repl_delay=0
[server3]
hostname=10.10.10.70
port=3306
扩展:
关于配置VIP配合MHA使用
VIP配置可以采用两种方式,一种通过keepalived的方式管理虚拟IP的浮动;另外一种通过脚本方式启动虚拟IP的方式(即不需要keepalived或者heartbeat类似的软件)。
关于keepalived方式我这里不讲了,因为为了防止脑裂发生,推荐生产环境采用脚本的方式来管理虚拟IP,而不是使用keepalived来完成。自行脑补百度或者参考http://www.cnblogs.com/gomysql/p/3675429.html
下面是通过脚本的方式管理VIP。这里是修改/usr/local/bin/master_ip_failover,修改完成后内容如下,而且如果使用脚本管理vip的话,需要手动在master服务器上绑定一个VIP
编写脚本/usr/ /bin/master_ip_failover,要会perl脚本语言(主库上操作,xuegod68)。
在MHA Manager修改脚本修改后的内容如下(参考资料比较少):
#!/usr/bin/env perl
use strict;
use warnings FATAL => \'all\';
use Getopt::Long;
my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);
my $vip = \'192.168.0.88\';
my $ssh_start_vip = "/etc/init.d/keepalived start";
my $ssh_stop_vip = "/etc/init.d/keepalived stop";
GetOptions(
\'command=s\' => \\$command,
\'ssh_user=s\' => \\$ssh_user,
\'orig_master_host=s\' => \\$orig_master_host,
\'orig_master_ip=s\' => \\$orig_master_ip,
\'orig_master_port=i\' => \\$orig_master_port,
\'new_master_host=s\' => \\$new_master_host,
\'new_master_ip=s\' => \\$new_master_ip,
\'new_master_port=i\' => \\$new_master_port,
);
exit &main();
sub main {
print "\\n\\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\\n\\n";
if ( $command eq "stop" || $command eq "stopssh" ) {
my $exit_code = 1;
eval {
print "Disabling the VIP on old master: $orig_master_host \\n";
&stop_vip();
$exit_code = 0;
};
if ($@) {
warn "Got Error: $@\\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start" ) {
my $exit_code = 10;
eval {
print "Enabling the VIP - $vip on the new master - $new_master_host \\n";
&start_vip();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \\n";
#`ssh $ssh_user\\@cluster1 \\" $ssh_start_vip \\"`;
exit 0;
}
else {
&usage();
exit 1;
}
}
# A simple system call that enable the VIP on the new master
sub start_vip() {
`ssh $ssh_user\\@$new_master_host \\" $ssh_start_vip \\"`;
}
# A simple system call that disable the VIP on the old_master
sub stop_vip() {
`ssh $ssh_user\\@$orig_master_host \\" $ssh_stop_vip \\"`;
}
sub usage {
"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\\n";
}
以上是关于MYSQL高可用集群架构-MHA架构的主要内容,如果未能解决你的问题,请参考以下文章