一次 MySQL 千万级大表的优化过程

Posted 终码一生

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了一次 MySQL 千万级大表的优化过程相关的知识,希望对你有一定的参考价值。


戳蓝字“ 终码一生 ”关注我们!记得加个⭐标哦

 

一次 MySQL 千万级大表的优化过程
     
阅读本文预计需要1.5分钟
         
一次 MySQL 千万级大表的优化过程  



 

来源 | 整理自互联网


一次 MySQL 千万级大表的优化过程


“不为失败找理由,要为成功找方法”


背景: 使用阿里云RDS for mysql数据库,有个用户上网记录表6个月的数据量近2000万,保留最近一年的数据量达到4000万,查询速度极慢,日常卡死,严重影响业务。老系统,当时设计系统的人大概是大学没毕业,表设计和SQL语句写的不仅仅是垃圾,简直无法直视。原开发人员都已离职,到我来维护,这就是传说中的维护不了就跑路,然后我就是掉坑的那个!!


 

1

方案概述


 

方案一:优化现有MySQL数据库。

优点:不影响现有业务,源程序不需要修改代码,成本最低。

缺点:有优化瓶颈,数据量过亿就玩完了。


方案二:升级数据库类型,换一种100%兼容MySQL的数据库。

优点:不影响现有业务,源程序不需要修改代码,你几乎不需要做任何操作就能提升数据库性能。

缺点:多花钱。


方案三:一步到位,大数据解决方案,更换newSQL/noSQL数据库。

优点:没有数据容量瓶颈。

缺点:需要修改源程序代码,影响业务,总成本最高。


 

2

优化现有MySQL数据库

 


✦ 数据库设计


• 表字段避免null值出现,null值很难查询优化且占用额外的索引空间,推荐默认数字0代替null。

• 尽量使用INT而非BIGINT,如果非负则加上UNSIGNED(这样数值容量会扩大一倍),当然能使用TINYINT、SMALLINT、MEDIUM_INT更好。

• 使用枚举或整数代替字符串类型。

• 尽量使用TIMESTAMP而非DATETIME。

• 单表不要有太多字段,建议在20以内。

• 用整型来存IP。


✦ 索引设计


• 索引并不是越多越好,要根据查询有针对性的创建,考虑在WHERE和ORDER BY命令上涉及的列建立索引,可根据EXPLAIN来查看是否用了索引还是全表扫描。

• 应尽量避免在WHERE子句中对字段进行NULL值判断,否则将导致引擎放弃使用索引而进行全表扫描。

• 值分布很稀少的字段不适合建索引,例如"性别"这种只有两三个值的字段。

• 字符字段只建前缀索引。

• 字符字段最好不要做主键。

• 不用外键,由程序保证约束。

• 尽量不用UNIQUE,由程序保证约束。

• 使用多列索引时注意顺序和查询条件保持一致,同时删除不必要的单列索引。

• 使用可存下数据的最小的数据类型,整型 < date,time < char,varchar < blob*

• 使用简单的数据类型,整型比字符处理开销更小,因为字符串的比较更复杂。如,int类型存储时间类型,bigint类型转ip函数。

• 使用合理的字段属性长度,固定长度的表会更快。使用enum、char而不是varchar。

• 尽可能使用not null定义字段。

• 尽量少用text,非用不可最好分表。

• 查询频繁的列,在where,group by,order by,on从句中出现的列。

• where条件中<,<=,=,>,>=,between,in,以及like 字符串+通配符(%)出现的列。

• 长度小的列,索引字段越小越好,因为数据库的存储单位是页,一页中能存下的数据越多越好。

• 离散度大(不同的值多)的列,放在联合索引前面。查看离散度,通过统计不同的列值来实现,count越大,离散程度越高。


✦ SQL编写


• 使用limit对查询结果的记录进行限定。

• 避免select *,将需要查找的字段列出来。

• 使用连接(join)来代替子查询。

• 拆分大的delete或insert语句。

• 可通过开启慢查询日志来找出较慢的SQL。

• 不做列运算:SELECT id WHERE age + 1 = 10,任何对列的操作都将导致表扫描,它包括数据库教程函数、计算表达式等等,查询时要尽可能将操作移至等号右边。

• SQL语句尽可能简单:一条SQL只能在一个cpu运算;大语句拆小语句,减少锁时间;一条大SQL可以堵死整个库。

• OR改写成IN:OR的效率是n级别,IN的效率是log(n)级别,in的个数建议控制在200以内。

• 不用函数和触发器,在应用程序实现。

• 避免%xxx式查询。

• 少用JOIN。

• 使用同类型进行比较,比如用'123'和'123'比,123和123比。

• 尽量避免在WHERE子句中使用!=或<>操作符,否则将引擎放弃使用索引而进行全表扫描。

• 对于连续数值,使用BETWEEN不用IN:SELECT id FROM t WHERE num BETWEEN 1 AND 5。

• 列表数据不要拿全表,要使用LIMIT来分页,每页数量也不要太大。


✦ 分区


• 可以让单表存储更多的数据。

• 分区表的数据更容易维护,可以通过清楚整个分区批量删除大量数据,也可以增加新的分区来支持新插入的数据。另外,还可以对一个独立分区进行优化、检查、修复等操作。

• 部分查询能够从查询条件确定只落在少数分区上,速度会很快。

• 分区表的数据还可以分布在不同的物理设备上,从而搞笑利用多个硬件设备。

• 可以使用分区表赖避免某些特殊瓶颈,例如InnoDB单个索引的互斥访问、ext3文件系统的inode锁竞争。

• 可以备份和恢复单个分区。

• 一个表最多只能有1024个分区。

• 如果分区字段中有主键或者唯一索引的列,那么所有主键列和唯一索引列都必须包含进来。

• 分区表无法使用外键约束。

• NULL值会使分区过滤无效。

• 所有分区必须使用相同的存储引擎。


✦ 分表


• 分表就是把一张大表,按照如上过程都优化了,还是查询卡死,那就把这个表分成多张表,把一次查询分成多次查询,然后把结果组合返回给用户。

• 分表分为垂直拆分和水平拆分,通常以某个字段做拆分项。比如以id字段拆分为100张表:表名为 tableName_id%100。

• 但:分表需要修改源程序代码,会给开发带来大量工作,极大的增加了开发成本,故:只适合在开发初期就考虑到了大量数据存在,做好了分表处理,不适合应用上线了再做修改,成本太高!!!而且选择这个方案,都不如选择我提供的第二第三个方案的成本低!故不建议采用。


✦ 分库


• 把一个数据库分成多个,建议做个读写分离就行了,真正的做分库也会带来大量的开发成本,得不偿失!不推荐使用。


 

3

升级数据库

  


• 开源数据库会带来大量的运维成本且其工业品质和MySQL尚有差距,有很多坑要踩,如果你公司要求必须自建数据库,那么选择该类型产品。如tiDB pingcap/tidb,Cubrid Open Source Database With Enterprise Features。

阿里云POLARDB,POLARDB 是阿里云自研的下一代关系型分布式云原生数据库,100%兼容MySQL,存储容量最高可达 100T,性能最高提升至 MySQL 的 6 倍。POLARDB 既融合了商业数据库稳定、可靠、高性能的特征,又具有开源数据库简单、可扩展、持续迭代的优势,而成本只需商用数据库的 1/10。

阿里云OcenanBase,淘宝使用的,扛得住双十一,性能卓著,但是在公测中,我无法尝试,但值得期待。

阿里云HybridDB for MySQL (原PetaData),云数据库HybridDB for MySQL (原名PetaData)是同时支持海量数据在线事务(OLTP)和在线分析(OLAP)的HTAP(Hybrid Transaction/Analytical Processing)关系型数据库。

腾讯云DCDB,DCDB又名TDSQL,一种兼容MySQL协议和语法,支持自动水平拆分的高性能分布式数据库——即业务显示为完整的逻辑表,数据却均匀的拆分到多个分片中;每个分片默认采用主备架构,提供灾备、恢复、监控、不停机扩容等全套解决方案,适用于TB或PB级的海量数据场景。


 

4

换大数据引擎

 


• hadoop家族。hbase/hive怼上就是了。但是有很高的运维成本,一般公司可能会考虑成本,没几十万投入是不会有很好的产出的!

• 我选择了阿里云的MaxCompute配合DataWorks,使用超级舒服,按量付费,成本极低。

• MaxCompute可以理解为开源的Hive,提供SQL/mapreduce/ai算法/python脚本/shell脚本等方式操作数据,数据以表格的形式展现,以分布式方式存储,采用定时任务和批处理的方式处理数据。DataWorks提供了一种工作流的方式管理你的数据处理任务和调度监控。

• 当然你也可以选择阿里云hbase等其他产品,我这里主要是离线处理,故选择MaxCompute,基本都是图形界面操作,大概写了300行SQL,费用不超过100块钱就解决了数据处理问题。


 

5

总结

 


解决问题,方法和思路很重要。其实小编之前也给公司解决过类似的问题,最后不仅节省了成本,而且查询性能提升也非常可观。当时公司数据库(RDS)单表数据量已经到了20多亿条数据(可能会一些开发者不理解,为什么单表会这么大,其实是历史遗留问题,前面同学可能没有考虑到平台数据的暴增后的情况)整库存储已经20多TB,最高32TB,而这张表就将近10个TB,日增还在几千万,而且,查询性能已经严重下降,几张大表的查询,有时需要几十秒,甚至几分钟,面临RDS急需升级的问题,而升级费用是单月额外增加6W,这是一笔不小的开销,问题的解决,迫在眉睫。


同样的,我们也是先分析问题,然后对数据库做了重新设计和优化,并将业务表和统计表做了分库处理,又对于数据量目前一般的表,做了分表,读写做了分离,对于数据量超大的,日增也较大的几张表,直接将数据迁移到了HDFS,按日分区,使用大数据组件查询。


在业务层代码和数据层中间,新增了一个微服务,提供接口调用。使用SpringBoot+Druid+Mybatis+Hive+Presto+MySQL和一些其他组件搭建了一个框架,支持多数据源,多库,多表的快速查询和分页操作,查询性能提升不少,最主要的,原来的几张大表在不影响业务的前提下,全部迁移到了HDFS存储,RDS数据量也瞬间降了下来,也就不需要在升级RDS了。


近期抽空会整理下,把之前这个微服务框架分享出来,有需要的小伙伴可以直接拿来使用。等整理好,后面发文时会发出来。



一次 MySQL 千万级大表的优化过程 送福利了 一次 MySQL 千万级大表的优化过程


金三银四,又到了招聘的旺季,你准备好了吗?

这里送一些面试资料,让大家突击一下,

后台回复【面试】免费领取!




END

 


 


终码一生
长按扫描二维码
关注我们 获取更多技术资讯
微信号:zma_1314


往期推荐


以上是关于一次 MySQL 千万级大表的优化过程的主要内容,如果未能解决你的问题,请参考以下文章

优化MySQL千万级大表优化解决方案

MySQL千万级大表优化解决方案

Oracle优化:千万级大表逻辑判断的累赘

MySql 索引数据结构,千万级大表,关于性别及年龄字段是否需要加索引?

MySql 索引数据结构,千万级大表,关于性别及年龄字段是否需要加索引?

30个MySQL千万级大数据SQL查询优化技巧详解