京东二面:MySQL 主从延迟,读写分离 7 种解决方案
Posted 微观技术
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了京东二面:MySQL 主从延迟,读写分离 7 种解决方案相关的知识,希望对你有一定的参考价值。
大家好,我是Tom哥
我们都知道互联网数据有个特性,大部分场景都是 读多写少
,比如:微博、微信、淘宝电商,按照 二八原则
,读流量占比甚至能达到 90%
结合这个特性,我们对底层的数据库架构也会做相应调整。采用 读写分离
处理过程:
写
或 读
操作写
SQL,请求会发到 主库
binlog
,并同步给 从库
从库
通过 SQL 线程回放 binlog
,并在从库表中生成相应数据读
SQL,请求会通过 负载均衡
策略,挑选一个 从库
处理用户请求看似非常合理,细想却不是那么回事
主库
与 从库
是采用异步复制数据,如果这两者之间数据还没有同步怎么办?
主库刚写完数据,从库还没来得及拉取最新数据,读
请求就来了,给用户的感觉,数据丢了???
针对这个问题,今天,我们就来探讨下有什么解决方案?
要求不是很高,比如:大V有千万粉丝,发布一条微博,粉丝晚几秒钟收到这条信息,并不会有特别大的影响。这时,可以走从库
。场景二:
如果对数据的 实时性
要求非常高,比如金融类业务。我们可以在客户端代码标记下,让查询强制走主库。
方案二:
比较主从库的文件点位
还是执行 show slave status
,响应结果里有截个关键参数
两两比较,上面的参数是否相等
方案三:
比较 GTID 集合
比较 Retrieved_Gtid_Set
和 Executed_Gtid_Set
的值是否相等
在执行业务SQL操作时,先判断从库是否已经同步最新数据。从而决定是操作主库,还是操作从库。
缺点:
无论采用上面哪一种方案,如果主库的写操作频繁不断,那么从库的值永远跟不上主库的值,那么读流量永远是打在了主库上。
针对这个问题,有什么解决方案?
这个问题跟 MQ消息队列 既要求高吞吐量又要保证顺序是一样的,从全局来看确实无解,但是缩小范围就容易多了,我们可以保证一个分区内的消息有序。
回到 主从库
之间的数据同步问题,从库查询哪条记录,我们只要保证之前对应的写binglog已经同步完数据即可,可以不用管主从库的所有的事务binlog 是否同步。
问题是不是一下简单多了
读请求
时,从库还是无法确认是否已经同步数据,方案实用性不高。设置为OWN_GTID
,调用 API 接口mysql_session_track_get_first
返回结果解析出 GTID处理流程:
写
SQL 操作,在主库成功执行后,返回这个事务的 GTID读
SQL 操作时,先在从库执行 select wait_for_executed_gtid_set (gtid_set, 1)
查询
操作查询
操作缺点:
跟上面的 master_pos_wait
类似,如果 写操作
与 读操作
没有上下文关联,那么 GTID 无法传递 。方案实用性不高。
缺点:
K-V 存储,适用一些简单的查询条件场景。如果复杂的查询,还是要查询从库。
七、数据分片参考 Redis Cluster 模式, 集群网络拓扑通常是 3主 3从,主节点既负责写,也负责读。
通过水平分片,支持数据的横向扩展。由于每个节点都是独立的服务器,可以提高整体集群的吞吐量。
转换到数据库方面
常见的解决方式,是分库分表,每次读写
都是操作主库的一个分表,从库只用来做数据备份。当主库发生故障时,主从切换,保证集群的高可用性。
关于我:Tom哥,前阿里P7技术专家,offer收割机,参加多次淘宝双11大促活动。欢迎关注,我会持续输出更多经典原创文章,为你晋级大厂助力
目前微信群已开放,想进交流群的小伙伴请添加Tom哥微信,暗号「进群」,唠嗑聊天, 技术交流,围观朋友圈,人生打怪不再寂寞
推荐阅读MySQL 主从复制与读写分离 部署
MySQL 主从复制与读写分离
一.什么是读写分离
读写分离,基本的原理是让主数据库处理事务性增、改、删操作( INSERT、UPDATE、DELETE) ,而从数据库处理SELECT查询操作。数据库复制被用来把事务性操作导致的变更同步到集群中的从数据库
二.为什么要读写分离
因为数据库的“写”(写10000条数据可能要3分钟)操作是比较耗时的;
但是数据库的“读”(读10000条数据可能只要5秒钟);
所以读写分离,解决的是,数据库的写入,影响了查询的效率
三.什么时候要读写分离
数据库不一定要读写分离,如果程序使用数据库较多时,而更新少,查询多的情况下会考虑使用。利用数据库主从同步,再通过读写分离可以分担数据库压力,提高性能
四.主从复制与读写分离
在实际的生产环境中,对数据库的读和写都在同一个数据库服务器中,是不能满足实际需求的。无论是在安全性、高可用性还是高并发等各个方面都是完全不能满足实际需求的。因此,通过主从复制的方式来同步数据,再通过读写分离来提升数据库的并发负载能力。有点类似于rsync,但是不同的是rsync是对磁盘文件做备份,而mysq1 主从复制是对数据库中的数据、语句做备份
五.mysql支持的复制类型
STATEMENT:基于语句的复制
在服务器上执行SQL语句,在从服务器上执行相同的语句,MySQL默认采用基于语句的复制,执行效率高
ROW:基于行的复制
把改变的内容复制过去,而不是把命令在从服务器上执行一遍
MIXED:混合类型的复制
默认采用基于语句的复制,一旦发现基于语句无法精确复制时,就会采用基于行的复制
六.主从复制的工作过程
1.主服务器在更新数据前,会写入二进制日志
2.从服务器开启I/O线程,读取主服务器的二进制日志,再写入到中继日志
3.从服务器的sql线程开启,读取中继日志,并且进行重放,从而实现与主服务器的数据一致
七.MySQL主从复制延迟
1.master服务器高并发,形成大量事务
2.网络延迟
3.主从硬件设备导致
cpu主频、内存io、硬盘io
4.从库使用高性能主机。包括cpu强悍、内存加大。避免使用虚拟云主机,使用物理主机,这样提升了i/o方面性。
从库使用SSD磁盘。
网络优化,避免跨机房实现同步
八.MySQL读写分离原理
读写分离就是只在主服务器上写,只在从服务器上读。基本的原理是让主数据库处理事务性查询,而从数据库处理select查询。数据库复制被用来把主数据库上事务性查询导致的变更同步到集群中的从数据库
九.目前较为常见的MySQL读写分离分为以下两种
1)基于程序代码内部实现.
在代码中根据select、 insert 进行路由分类,这类方法也是目前生产环境应用最广泛的。
优点是性能较好,因为在程序代码中实现,不需要增加额外的设备为硬件开支;缺点是需要开发人员来实现,运维人员无从下手
但是并不是所有的应用都适合在程序代码中实现读写分离,像一些大型复杂的Java应用,如果在程序代码中实现读写分离对代码改动就较大。
2)基于中间代理层实现
代理一般位于客户端和服务器之间,代理服务器接到客户端请求后通过判断后转发到后端数据库,有以下代表性程序。
(1)MySQL-Proxy。 MySQL-Proxy 为MySQL开源项目,通过其自带的lua脚本进行SQL判断。
(2) Atlas。是由奇虎360的Web平台部基础架构团队开发维护的一个基于MySQL协议的数据中间层项目。它是在mysql-proxy0.8.2版本的基础上,对其进行了优化,增加了一些新的功能特性。360内部使用Atlas运行的mysq1业务,每天承载的读写请求数达几十亿条。支持事物以及存储过程。
(3) Amoeba。由陈思儒开发,作者曾就职于阿里巴巴。该程序由Java语言进行开发,阿里巴巴将其用于生产环境。但是它不支事务和存储过程。
由于使用MySQL Proxy 需要写大量的Lua脚木,这些Lua并不是现成的,而是需要自己去写。这对于并不熟悉MySQL Proxy内置变量和MySQLProtocol的人来说是非常困难的
Amoeba是一个非常容易使用、可移植性非常强的软件。因此它在生产环境中被广泛应用于数据库的代理层
搭建MySQL主从复制
环境准备
Master 服务器: 192.168.116.90
Slave1 服务器: 192.168.116.80
Slave2 服务器: 192.168.116.70
----Mysql主从服务器时间同步----
##主服务器设置##
yum install ntp -y
vim /etc/ntp.conf
--末尾添加--
server 127.127.80.0 #设置本地是时钟源,注意修改网段
fudge 127.127 .80.0 stratum 8 #设置时间层级为8(限制在15内)
service ntpd start
##从服务器设置##
yum install ntp ntpdate -y
service ntpd start
/usr/sbin/ntpdate 192.168.80.10 #进行时间同步
crontab -e
*/30 ****/usr/sbin/ntpdate 192.168.80.10.
主服务器设置
从服务器设置
----主服务器的mysql配置-----
vim /etc/my.cnf
server-id = 11
log-bin=master-bin #添加,主服务器开启二进制日志
binlog_format = MIXED
log-slave-updates=true #添加,允许从服务器更新二进制日志
systemctl restart mysqld
mysql -u root -pabc123
GRANT REPLICATION SLAVE ON *.* TO 'myslave'@'192.168.80.81 IDENTIFIED BY '123456' ; #给从服务器授权
FLUSH PRIVILEGES;
show master status;
#File列显示日志名,Position 列显示偏移量
----从服务器的mysql配置----
vim /etc/my.cnf
server-id = 22 #修改,注意id与Master的不同,两个Slave的id也要不同
relay-log=relay-log-bin #添加,开启中继日志,从主服务器上同步日志文件记录到本地
relay-log-index=slave-relay-bin.index #添加,定义中继日志文件的位置和名称
systemctl restart mysqld
mysql -u root -pabc123
CHANGE master to
master_host='192.168.80.10',master_user= 'myslave',master_password='123456',master_log_file='master-bin.000002',ma
ster_log_pos=339;
#配置同步,注意master_ log_ file和master_ log_ pos的值要与Master查询的一致
start slave;
#启动同步,如有报错执行reset slave;
show slave status\\G
#查看Slave 状态
//确保IO和SQL线程都是Yes, 代表同步正常。
Slave_IO_Running: Yes
#负责与主机的io通信
Slave_SQL_Running: Yes
#负责自己的slave mysq1进程
#一般Slave_IO_Running: No的可能性:
1、网络不通
2、my.cnf配置有问题
3、密码、file文件名、pos偏移量不对
4、防火墙没有关闭
主服务器的mysql配置
从服务器的mysql配置
测试主从分离
搭建MySQL读写分离
Master 服务器: 192.168.116.90
Slave1 服务器: 192.168.116.80
Slave2 服务器: 192.168.116.70
Amoeba 服务器:192.168.116.100
客户端 : 192.168.116.60
搭建MySQL读写分离
----Amoeba服务器配置
##安装Java 环境# #
因为Amoeba基于是jdk1.5 开发的,所以官方推荐使用jdk1.5 或1.6版本,高版本不建议使用。
cd /opt/
cp jdk-6u14-1inux-x64.bin /usr/local/
cd /usr/local/
chmod +x jdk-6u14-linux-x64
./jdk-6u14-linux-x64.bin
//按yes,按enter
mv jdk1.6.0_14/ /usr/local/jdk1.6
vim /etc/profile
export JAVA HOME=/usr/local/jdk1.6
export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export PATH=$JAVA_HOME/lib:$JAVA_HOME/jre/bin/:$PATH:$HOME/bin
export AMOEBA_HOME=/usr/local/amoeba
export PATH=$PATH:$AMOEBA_HOME/bin
source /etc/profile
java -version
##安装Amoeba软件##
mkdir /usr/local/amoeba
tar zxvf amoeba-mysql-binary-2.2.0.tar.gz -C /usr/local/amoeba/
chmod -R 755 /usr/local/amoeba/
/usr/local/amoeba/bin/amoeba
/ /如显示amoeba start |stop说明安装成功
##配置Amoeba读写分离,两个Slave 读负载均衡##
#先在Master、Slave1、 Slave2 的mysq1l_ 上开放权限给Amoeba 访问
grant all on *.* to test@'192.168.80.%' identified by '123.com';
#再回到amoeba服务器配置amoeba服务:
cd /usr/local/amoeba/conf/
cp amoeba.xml amoeba.xml.bak
vim amoeba.xml #修改amoeba配置文件
--30行--
<property name="user">amoeba</property>
--32行--
<property name="password">123456</property>
--115行--
<property name="defaultPool">master</property>
--117-去掉注释-
<property name= "writePool">master</property>
<property name= "readPool">slaves</property>
cp dbServers.xml dbServers.xml.bak
vim dbServers.xml #修改数据库配置文件
--23行--注释掉 作用:默认进入test库 以防mysq1中没有test库时, 会报错
<!-- <property name= "schema">test</property> -->
--26--修改
<property name="user">test</property>
--28-30--去掉注释,然后再把28行注释或删除
<property name="password"> 123.com</property>
--45--修改, 设置主服务器的名Master
<dbServer name="master" parent="abstractServer">
--48--修改,设置主服务器的地址
<property name="ipAddress">192.168.80.10</property>
--52--修改, 设置从服务器的名slave1
<dbServer name="slave1" parent="abstractServer">
--55--修改,设置从服务器1的地址
<property name="ipAddress">192.168.80.11</property>
--58--复制.上面6行粘贴,设置从服务器2的名slave2和地址
<dbServer name="slave2" parent="abstractServer">
<property name="ipAddress">192.168.80.12</property>
--65行--修改
<dbServer name="slaves" virtual="true">
--71行--修改
<property name="poolNames">slave1,slave2</property>
/usr/local/amoeba/bin/amoeba start&
#启动Amoeba软件,按ctrl+c 返回
netstat -anpt | grep java
#查看8066端口是否开启,默认端口为TCP 8066
Amoeba服务器配置
测试读写分离
----测试读写分离----
yum install -y mariadb-server mariadb
systemctl start mariadb.service
在客户端服务器上测试:
mysql -u amoeba -p123456 -h 192. 168.80.20 -P8066
//通过amoeba服务器代理访问mysql,在通过客户端连接mysql后写入的数据只有主服务会记录,然后同步给从--从服务器
在主服务器上:
use db_test;
create table test (id int (10),name varchar (10),address varchar(20) );
在两台从服务器上:
stop slave; #关闭同步
use db_test;
/ /在slave1上:
insert into test values('1','zhangsan','this is slave1') ;
//在slave2上:
insert into test values('2','lisi','this is slave2');
//在主服务器上:
insert into test values('3', 'wangwu', 'this is master');
//在客户端服务器上:
use db_test;
select * from test;
//客户端会分别向slave1和slave2读取数据,显示的只有在两个从服务器上添加的数据,没有在主服务器.上添加的数据
insert into test values('4','qianqi','this is client') ;
//只有主服务器上有此数据
//在两个从服务器上执行startslave;即可实现同步在主服务器上添加的数据
start slave;
以上是关于京东二面:MySQL 主从延迟,读写分离 7 种解决方案的主要内容,如果未能解决你的问题,请参考以下文章