MySQL-运维
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了MySQL-运维相关的知识,希望对你有一定的参考价值。
1、日志
错误日志:
错误日志是MySQL中最重要的日志之一,它记录了当mysqld 启动和停止时,以及服务器在运行过程中发生任何严重错误时的相关信息。当数据库出现任何故障导致无法正常使用时,建议首先查看此日志
该日志默认是开启的,默认存放目录/var/log/,默认的日志文件名为mysqld.log。查看日志位置:
show variables like \'%log_error%\'
二进制日志:
二进制日志(BINLOG)记录了所有的DDL(数据定义语言)语句和DML(数据操纵语言)语句,但不包括数据查询(SELECT、SHOW)语句。
作用:
-
灾难时的数据恢复
-
MySQL的主从复制,在MySQL8版本中,默认二进制日志是开启着的,涉及到的参数如下
show variables like \'%log_bin%\'
log_bin_basename是二进制文件的存放目录
日志格式:
MySQL服务器中提供了多种格式来记录二进制日志,具体格式及特点如下:
日志格式 | 含义 |
---|---|
statement | 基于SQL语句的日志记录,记录的是SQL语句,对数据进行修改的SQL都会记录在日志文件中 |
row | 基于行的日志记录,记录的是每一行的数据变更(默认) |
mixed | 混合了statement和row的两种格式,默认采用statement,在某些特殊情况下会自动切换为row进行记录 |
show variables like \'%binlog_format%\'
日志查看:
由于日志是以二进制方式存储的,不能直接读取,需要通过二进制日志查询工具mysqlbinlog来查看,具体语法:
mysqlbinlog [参数选项] logfilename
参数选项
-d 指定数据库名称,只列出指定数据库的相关操作
-o 忽略掉日志中的前n行命令
-v 将行事件(数据变更)重构为SQL语句
-w 将行事件(数据变更)重构为SQL语句,并输出注释信息
日志删除:
比较繁忙的业务系统,每天生成的binlog数据巨大,如果长时间不清除,将会占用大量磁盘空间,可以通过一下几种方式清理日志:
指令 | 含义 |
---|---|
reset master | 删除全部的binlog日志,删除之后,日志编号,将从binlog.000001重新开始 |
purge master logs to \'binlog.*****\' | 删除****编号之前的所有日志 |
purge master logs before \'yyyy-mm-dd hh24:mi:ss\' | 删除日志为 \'yyyy-mm-dd hh24:mi:ss\'之前产生的所有日志 |
也可以在mysql的配置文件中配置二进制日志的过期时间,设置了之后,二进制日志过期会自动删除
show variables like \'%binlog_expire_logs_second%\'
查询日志:
查询日志中记录了客户端的所有操作语句,而二进制日志不包含查询数据的SQL语句,默认情况下,查询日志是未开启的。如果需要开启查询日志,可以设置以下配置:
和查询相关的参数:general_log和general_log_file
show variables like \'%general%\'
修改MySQL的配置文件 /etc/my.cnf文件,添加如下内容:
# 该选项用来开启查询日志,可选值:0或1;0代表关闭,1代表开启
general_log=1
# 设置日志的文件名,如果没有指定,默认的文件名为host_name.log
general_log_file=mysql_query.log
慢查询日志:
慢查询日志记录了所有执行时间超过参数 long_query_time 设置值并且扫描记录数不小于 min_examined_row_limit的所有SQL语句的日志,默认未开启。long_query_time 默认为10秒,最小为 0,精度可以到微秒
# 慢查询日志
show_query_log = 1
# 执行时间参数
long_query_time=2
默认情况下,不会记录管理语句,也不会记录不使用索引进行查找的查询,可以使用log_slow_admin_statements和更改此行为 log_queries_not_using_indexes,如下所述
# 记录执行较慢的管理语句
log_slow_admin_statements=1
# 记录执行较慢的未使用索引的语句
log_queries_not_using_indexes=1
2、主从复制
主从复制是指将主数据库的DDL和 DML操作通过二进制日志传到从库服务器中,然后在从库上对这些日志重新执行(也叫重做),从而使得从库和主库的数据保持同步
MySQL支持一台主库同时向多台从库进行复制,从库同时也可以作为其他从服务器的主库,实现链状复制。
MySQL复制的优点包含以下三个方面:
- 主库出现问题,可以快速切换到从库提供服务
- 实现读写分离,降低主库的访问压力
- 可以在从库中执行备份,以避免备份期间影响主库服务
原理:
二进制日志
从上图看,复制分成三步:
- Master主库在事务提交时,会把数据变更记录在二进制日志文件Binlog中
- 从库读取主库的二进制日志文件Binlog,写入到从库的中继日志Relay Log
- slave重做中继日志中的事件,将改变反映它自己的数据
搭建:
主库配置:
从库配置:
测试:
小结:
-
概述
将主库的数据变更同步到从库,从而保证主库和从库数据一致
数据备份、失败迁移、读写分离、降低单库读写压力
-
原理
- 主库会把数据变更记录在二进制日志文件Binlog中
- 从库连接主库,读取binlog日志,并写入自身中继日志relaylog
- slave重做中继日志,将改变反映它的自己的数据
-
搭建
- 准备服务器
- 配置主库
- 配置从库
- 测试主从复制
3、分库分表
随着互联网发展, 应用系统的数据量也是成指数式增长,若采用单数据库进行数据存储,存在以下性能瓶颈:
- IO瓶颈:热点数据太多,数据库缓存不足,产生大量磁盘IO,效率较低。请求数据太多,带宽不够,网络IO瓶颈
- CPU瓶颈:排序、分组、连接查询、聚合统计等SQL会耗费大量CPU资源,请求数太多,CPU出现瓶颈
分库分表的中心思想都是将数据分散存储,使得单一数据库/表的数据量变小来缓解单一数据库的性能问题,从而达到提升数据库性能的目的
拆分策略:
- 垂直分库:以表为依据,根据业务将不同表拆分到不同的库中,特点:
- 每个库的表结构都不一样
- 每个库的数据也不一样
- 所有库的并集是全量数据
- 垂直分表:以字段为依据,根据字段属性将不同字段拆分到不同表中
- 每个表的结构都不一样
- 每个表的数据也不一样,一般通过一列(主键/外键)关联
- 所有表的并集是全量数据
- 水平拆分:以字段为依据,按照一定策略,将一个库的数据拆分到多个库中
- 每个库的表结构都一样
- 每个库的数据都不一样
- 所有库的并集是全量数据
- 水平分表:以字段为依据,按照一定策略,将一个表的数据拆分到多个表中
- 每个表的表结构都一样
- 每个表的数据都不一样
- 所有表的并集是全量数据
实现分库分表的工具:
-
shardingDBC
基于AOP原理,在应用程序中对本地执行的SOL进行拦截,解析、改写、路由处理。需要自行编码配置实现,只支持java语言,性能较高。
-
MyCat
数据库分库分表中间件,不用调整代码即可实现分库分表,支持多种语言,性能不及前者
MyCat:
MyCat是开源的、活跃的、基于java语言编写的MySQL数据库中间件,可以像使用mysql一样来使用mycat,对于开发人员来说根本感觉不到mycat的存在
优势:
- 性能可靠稳定
- 强大的技术团队
- 体系完善
- 社区活跃
Mycat是java语言开发的开源数据库中间件,支持windows和linux运行环境,下面介绍mycat的linux中的环境搭建,我们需要在准备好的服务器中安装如下软件
- mysql
- jdk
- mycat
举例:
服务器 | 安装软件 | 说明 |
---|---|---|
192.168.200.210 | JDK、MyCat | MyCat中间件服务器 |
192.168.200.210 | MySQL | 分片服务器 |
192.168.200.213 | MySQL | 分片服务器 |
192.168.200.214 | MySQL | 分片服务器 |
需要在机器上安装JDK和MyCat可以去网上搜博文
mycat解压之后的文件说明:
- bin:存放可执行文件,用于启动停止mycat
- conf:存放mycat的配置文件
- lib:存放mycat的项目依赖包(jar)
- logs:存放mycat的日志文件
mycat配置需要schema.xml文件
启动服务:
切换到MyCat的安装目录,执行如下命令,启动MyCat
# 启动
bin/mycat start
# 停止
bin/mycat stop
Mycat启动后,占用端口号8066
启动完毕之后,可以查看logs目录下的启动日志,查看MyCat是否启动完成
分片测试:
通过如下指令,就可以连接并登录MyCat
mysql -h 192.168.200.210 -P 8066 -uroot -p123456
MyCat配置:
schema.xml作为MyCat中最重要的配置文件之一,涵盖了MyCat的逻辑库、逻辑表、分片规则、分片节点及数据源的配置
主要包含三组标签:
-
schema标签
schema 标签用于定义 MvCat实例中的逻辑库,一个MyCat实例中,可以有多个逻辑库,可以通过 schema 标签来划分不同的逻辑库,
MyCat中的逻辑库的概念,等同于MySQL中的database概念,需要操作某个逻辑库下的表时,也需要切换逻辑库(use xx)。核心属性:
<schema name="DBO1" checkSQLschema="true" sqlMaxLimit="100"> <table name="TB ORDER" dataNode="dn1,dn2,dn3" rule="auto-sharding-long"/> </schema>
- name:指定自定义逻辑库库名
- checkSQLschema:在SQL语句操作时指定了数据库名称,执行时是否自动去除 true自动去除,false不自动去除
- sqlMaxLimit:如果未指定limit进行查询,列表查询模式查询多少条记录
table 标签定义了MyCat中逻辑库schema下的逻辑表,所有需要拆分的表都需要在table标签中定义:
- name: 定义逻辑表表名,在该逻辑库下唯一
- dataNode: 定义逻辑表所属的dataNode,该属性需要与dataNode标签中name对应; 多个dataNode逗号分隔
- rule: 分片规则的名字,分片规则名字是在rule.xml中定义的
- primaryKey: 逻辑表对应真实表的主键
- type: 逻辑表的类型,目前逻辑表只有全局表和普通表,如果未配置,就是普通表;全局表,配置为 global
-
datanode标签
dataNode标签中定义了MyCat中的数据节点,也就是我们通常说的数据分片。一个dataNode标签就是一个独立的数据分片
- name: 定义数据节点名称
- dataHost: 数据库实例主机名称,引用自 dataHost 标签中name属性
- database: 定义分片所属数据库
-
datahost标签
该标签在MyCat逻辑库中作为底层标签存在,直接定义了具体的数据库实例、读写分离、心跳语句。
- name:唯一标识,供上层标签使用
- maxCon/minCon: 最大连接数/最小连接数
- balance: 负载均衡策略,取值 0,1,2,3
- writeType: 写操作分发方式(0: 写操作转发到第一个writeHost,第一个挂了,切换到第二个,1: 写操作随机分发到配置的writeHost)
- dbDriver: 数据库驱动,支持 native、jdbc
rule.xml:
rulexml中定义所有拆分表的规则,在使用过程中可以灵活的使用分片算法或者对同一个分片算法使用不同的参数,它让分片过程可配
置化。主要包含两类标签: tableRule、Function。
server.xml:
server.xml配置文件包含了MyCat的系统配置信息,主要有两个重要的标签: system、user
user标签:
MyCat分片:
-
垂直拆分
在业务系统中,涉及以下表结构,但是由于用户与订单每天都会产生大量的数据,单台服务器的数据存储及处理能力是有限的,可以对数据库表进行拆分,原有的数据库表如下。
通过source执行sql脚本
全局表配置
-
水平拆分
-
分片规则-范围
根据指定的字段及其配置的范围与数据节点的对应情况,来决定该数据属于哪一个分片。
-
分片规则-取模
根据指定的字段值与节点数量进行求模运算,根据运算结果,来决定该数据属于哪一个分片
-
分片规则-一致性hash
所谓一致性哈希,相同的哈希因子计算值总是被划分到相同的分区表中,不会因为分区节点的增加而改变原来数据的分区位置。
-
分片规则-枚举
通过在配置文件中配置可能的枚举值,指定数据分布到不同数据节点上,本规则适用于按照省份、性别、状态拆分数据等业务
-
分片规则-应用指定
运行阶段由应用自主决定路由到那个分片,直接根据字符子串(必须是数字)计算分片号
-
分片规则-固定分片hash算法
该算法类似于十进制的求模运算,但是为二进制的操作,例如,取id 的二进制低 10 位 与 1111111111 进行位& 运算
特点:
- 如果是求模,连续的值,分别分配到各个不同的分片;但是此算法会将连续的值可能分配到相同的分片,降低事务处理的难度
- 可以均匀分配,也可以非均匀分配
- 分片字段必须为数字类型
-
分片规则-字符串hash解析
截取字符串中的指定位置的字符串,进行hash算法,算出分片
- 分片规则-按(天)日期分片
-
分片规则-自然月
使用场景为按照月份来分片,每个自然月为一个分片
MyCat原理:
MyCat管理:
MyCat默认开通2个端口,可以在server.xml中进行修改
- 8066数据访问端口,即进行DML和DDL操作
- 9066数据库管理端口,即mycat服务管理控制功能,用于管理mycat的整个集群状态
mysql -h 192.168.200.210 -p 9066 -uroot -p123456
命令 | 含义 |
---|---|
show @@help | 查看MyCat管理工具帮助文档 |
show @@version | 查看MyCat的版本 |
reload @@config | 重新加载MyCat的配置文件 |
show @@datasource | 查看MyCat的数据源信息 |
show @@datanode | 查看MyCat现有的分片节点信息 |
show @@threadpool | 查看MyCat的线程池信息 |
show @@sql | 查看执行的SQL |
show @@sql.sum | 查看执行的SQL统计 |
MyCat-eye:
Mycat-web(Mycat-eye)是对mycat-server提供监控服务,能不局限于对mycat-server使用。他通过JDBC连接对Mycat、Mysal监控,监控远程服务器(目前仅限于linux系统)的cpu、内存、网络、磁盘。Mycat-eye运行过程中需要依赖zookeeper,因此需要先安装zookeeper。
安装:
- 安装zookeeper
- MyCat-web安装
访问:
http://192.168.200:8082/mycat
去网上搜一下安装配置步骤
4、读写分离
读的话连从节点,写的话连接主节点
介绍:
读写分离,简单地说是把对数据库的读和写操作分开,以对应不同的数据库服务器。主数据库提供写操作,从数据库提供读操作,这样能有效地减轻单台数据库的压力。
通过MyCat即可轻易实现上述功能,不仅可以支持MySQL,也可以支持Oracle和SQL Server。
一主一从:
原理:
MySQL的主从复制,是基于二进制日志 (binlog)实现的。
一主一从读写分离:
配置:
MyCat控制后台数据库的读写分离和负载均衡由schemaxml文件datahost标签的balance属性控制。
双主双从:
个主机Master1 用于处理所有写请求,它的从机 Slave1 和另一台主机 Master2 还有它的从机 Slave2 负责所有读请求。当Master1主机宕机后,Master2 主机负责写请求,Master1、Master2 互为备机。架构图如下:
需要准备5台服务器
搭建:
双主双从读写分离:
自动运维|简单实现MySQL主从监控--美创运维日记
最近领导交给我一个任务,说一套很重要的MySQL需要搭建一套主从,需要每天监控其同步情况,确保主从同步正常。
这个任务难点倒不是在搭建主从上,反而在如何保障主从同步正常。经常由于网络原因或者操作错误,导致出现MySQL主从不同步的情况。
查看主从是否同步可以通过 show slave status\\G 命令,查看Slave_IO_Running Slave_SQL_Running 及Seconds_Behind_Master参数就能确认是否同步。
每天一次就行,但是作为社会主义的接班人怎么能把时间花在这个没有营养的重复动作上呢,能自动化绝对不手动。
市面是现在存在很多开源的监控工具,比如zabbix,grafana等等,可用性也是蛮高的,可以通过这些工具完成监控。
但是这些工具还是要额外安装包然后下载相应模板进行配置,那是否存在不需要用到额外的软件来监控MySQL数据库主从同步呢?
这里给大家介绍通过shell脚本来监控数据库主从同步状态,当数据库不正常的时候发送告警邮件到指定邮箱。
1.安装mailx软件
yum install mailx
TIP:mailx是一个小型的邮件发送程序。
2.编辑配置文件
注:
1、邮箱需要开启SMTP功能,每个邮箱的开启方法都大同小异,此处使用163邮箱。
2、现在大部分邮箱使用SMTP会让你启动一个授权码来代替邮箱密码。
使用方法:
echo "邮件内容"|mail -s 标题 xxx@163.com
3.创建主从监控脚本
根据实际情况修改如下标红位置。
4.设置定时任务
00 09 * * 1,5 sh /data/Auto_Check.sh
测试关闭从库复制。
以上,我们就实现监控从库3306端口是否存在(实例是否正常),监控从库SQL及IO进程是否正常。当不正常时,就会发送邮件提醒运维人员,快来救我~~~
美创运维中心数据库服务团队拥有Oracle ACE 1人、OCM 10余人、数十名Oracle OCP、MySQL OCP、红帽RHCA、中间件weblogic、tuxedo认证、达梦工程师 ,著有《Oracle DBA实战攻略》,《Oracle数据库性能优化方法和最佳实践》,《Oracle内核技术揭秘》等多本数据运维优化书籍。目前运维各类数据库合计2000余套,精通Oracle、MySQL、SQLServer、DB2、PostgreSQL、达梦等主流商业和开源数据库。并成为首批国内达梦战略合作伙伴之一,拥有海量经验和完善的人员培养体系。并同时提供超融合,私有云整体解决方案。
以上是关于MySQL-运维的主要内容,如果未能解决你的问题,请参考以下文章