为什么MySQL单表不能超过2000万行?

Posted 华为云开发者社区

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了为什么MySQL单表不能超过2000万行?相关的知识,希望对你有一定的参考价值。

摘要:MySQL一张表最多能存多少数据?

本文分享自华为云社区《为什么MySQL单表不能超过2000万行?》,作者: GaussDB 数据库 。

最近看到一篇《我说MySQL每张表最好不要超过2000万数据,面试官让我回去等通知》的文章,非常有趣。

文中提到,他朋友在面试的过程中说,自己的工作就是把用户操作信息存到MySQL里,因为数据量超大(5000万条左右),需要每天定时生成3张表,然后将数据取模分别存到这三张表里。

下面是两人的对话:

面试后续暂且不论,不过,互联网江湖上的确流传着一个说法:单表数据量超过500万行时就要进行分表分库,已经超过2000万行时MySQL的性能就会急剧下降。

那么,MySQL一张表最多能存多少数据?

今天我们就从技术层面剖析一下,MySQL单表数据不能过大的根本原因是什么?

猜想一:是索引深度吗?

很多人认为:数据量超过500万行或2000万行时,引起B+tree的高度增加,延长了索引的搜索路径,进而导致了性能下降。事实果真如此吗?

我们先理一下关系,MySQL采用了索引组织表的形式组织数据,叶子节点存储数据,非叶子节点存储主键与页面号的映射关系。若用户的主键长度是8字节时,MySQL中页面偏移占4个字节,在非叶子节点的时候实际上是8+4=12个字节,12个字节表示一个页面的映射关系。

MySQL默认是16K的页面,抛开它的配置header,大概就是15K,因此,非叶子节点的索引页面可放15*1024/12=1280条数据,按照每行1K计算,每个叶子节点可以存15条数据。同理,三层就是15*1280*1280=24576000条数据。只有数据量达到24576000条时,深度才会增加为4,所以,索引深度没有那么容易增加,详细数据可参考下表:

搜索路径延长导致性能下降的说法,与当时的机械硬盘和内存条件不无关系。

之前机械硬盘的IOPS在100左右,而现在普遍使用的SSD的IOPS已经过万,之前的内存最大几十G,现在服务器内存最大可达到TB级。

因此,即使深度增加,以目前的硬件资源,IO也不会成为限制MySQL单表数据量的根本性因素。

那么,限制MySQL单表不能过大的根本性因素是什么?

猜想二:是SMO无法并发吗?

我们可以尝试从MySQL所采用的存储引擎InnoDB本身来探究一下。

大家知道InnoDB引擎使用的是索引组织表,它是通过索引来组织数据的,而它采用B+tree作为索引的数据结构。

B+Tree操作非原子,所以当一个线程做结构调整(SMO,Struction-Modification-Operation)时一般会涉及多个节点的改动。

SMO动作过程中,此时若有另一个线程进来可能会访问到错误的B+Tree结构,InnoDB为了解决这个问题采用了乐观锁和悲观锁的并发控制协议。

InnoDB对于叶子节点的修改操作如下:

方式一,先采用乐观锁的方式尝试进行修改

对根节点加S锁(shared lock,叫共享锁,也称读锁),依次对非叶子节点加S锁。

如果叶子节点的修改不会引起B+Tree结构变动,如分裂、合并等操作,那么只需要对叶子节点进行加X锁(exclusive lock,叫排他锁,也称为写锁)即可完成修改。如下图中所示 :

方式二,采用悲观锁的方式

如果对叶子结点的修改会触发SMO,那么会采用悲观锁的方式。

采用悲观锁,需要重新遍历B+Tree,对根节点加全局SX锁(SX锁是行锁),然后从根节点到叶子节点可能修改的节点加X锁。

在整个SMO过程中,根节点始终持有SX锁(SX锁表示有意向修改这个保护的范围,SX锁与SX锁、X锁冲突,与S锁不冲突),此时其他的SMO则需要等待。

因此,InnoDB对于简单的主键查询比较快,因为数据都存储在叶子节点中,但对于数据量大且改操作比较多的TP型业务,并发会有很严重的瓶颈问题。

在对叶子节点的修改操作中,InnoDB可以实现较好的1与1、1与2的并发,但是无法解决2的并发。因为在方式2中,根节点始终持有SX锁,必须串行执行,等待上一个SMO操作完成。这样在具有大量的SMO操作时,InnoDB的B+Tree实现就会出现很严重的性能瓶颈。

解决方案

目前业界有一个更好的方案B-Link Tree,与B+Tree相比,B-Link Tree优化了B+Tree结构调整时的锁粒度,只需要逐层加锁,无需对root节点加全局锁。因此,可以做到在SMO过程中写操作的并发执行,保持高并发下性能的稳定。

B-Link Tree主要改进点有2个:

1.中间节点增加link指针,指向右兄弟节点;

2.每个节点内增加字段high key,存储该节点中最大的key值。

新增的link指针是为了解决SMO过程中并发写的问题,在SMO过程中,B-Link Tree对修改节点逐层加锁,修改完一层即可放锁,然后去加上一层节点的锁继续修改。这样在InnoDB引擎中被SMO阻塞的写操作可以有机会在SMO操作过程中并发进行。

如下图所示,在节点2分裂为节点2和4的过程中,只需要在最后一步将父节点1指向新节点4时,对父节点1加锁,其他操作均无需对父节点加锁,更无需对root节点加锁,因此,大大提升了SMO过程中写操作的并发度。

由此可见,与B+Tree全局加锁对比,B-Link Tree在高并发操作下的性能是显著优于B+Tree的。GaussDB当前采用的就是B-Link Tree索引数据结构。

InnoDB的索引组织表更容易触发SMO

索引组织表的叶子节点,存储主键以及应对行的数据,InnoDB默认页面为16K,若每行数据的大小为1000字节,每个叶子节点仅能存储16行数据。

在索引组织表中,当叶子节点的扇出值过低时,SMO的触发将更加频繁,进而放大了SMO无法并发写的缺陷。

目前业界有一个堆组织表的数据组织方案,也是华为云数据库GaussDB采用的方案。它的叶子节点存储索引键以及对应的行指针(所在的页面编号及页内偏移),堆组织表叶子节点可以存更多的数据,分析可得在同样的数据量与业务并发量下,堆组织表会比索引组织表发生SMO概率低许多。

性能对比

在8U32G的两台服务器分别搭建了MySQL(B+Tree和索引组织表)与GaussDB(B-Link Tree和堆组织表)的环境,进行了如下性能验证:

实验场景:在基础表的场景上,测试增量随机插入性能。

1.基础表总大小10G,包含主键随机分布的1000w行数据,每行数据1k;

2.插入主键随机分布的1000w行数据,每行数据大小1k,测试并发插入性能。

结论:随着并发数的上升,GaussDB能稳步提升系统的TPS,而MySQL并发数的提高并不能带来TPS的显著提升。

综上所述,MySQL无法支持大数据量下并发修改的根本原因,是由于其索引并发控制协议的缺陷造成的,而MySQL选择索引组织表,又放大了这一缺陷。所以,开源MySQL数据库更适用于主键查询为主的简单业务场景,如互联网类应用,对于复杂的商业场景限制比较明显。

相比之下 ,采用B-Link Tree和堆组织表的GaussDB数据库在性能和场景应用方面更胜一筹。

 

点击关注,第一时间了解华为云新鲜技术~

mysql优化注意事项

MySQL 性能

 

①最大数据量

 

抛开数据量和并发数,谈性能都是耍流氓。MySQL 没有限制单表最大记录数,它取决于操作系统对文件大小的限技术图片《阿里巴巴 Java 开发手册》提出单表行数超过 500 万行或者单表容量超过 2GB,才推荐分库分表。

 

性能由综合因素决定,抛开业务复杂度,影响程度依次是硬件配置、MySQL 配置、数据表设计、索引优化。500 万这个值仅供参考,并非铁律。

 

我曾经操作过超过 4 亿行数据的单表,分页查询最新的 20 条记录耗时 0.6 秒,SQL 语句大致是:

 

select field_1,field_2 from table where id < #{prePageMinId} order by id desc limit 20

  

 

prePageMinId 是上一页数据记录的最小 ID。虽然当时查询速度还凑合,随着数据不断增长,有朝一日必定不堪重负。

 

分库分表是个周期长而风险高的大活儿,应该尽可能在当前结构上优化,比如升级硬件、迁移历史数据等等,实在没辙了再分。对分库分表感兴趣的同学可以阅读分库分表的基本思想。

 

②最大并发数

 

并发数是指同一时刻数据库能处理多少个请求,由 max_connections 和 max_user_connections 决定。

 

max_connections 是指 MySQL 实例的最大连接数,上限值是 16384,max_user_connections 是指每个数据库用户的最大连接数。
MySQL 会为每个连接提供缓冲区,意味着消耗更多的内存。如果连接数设置太高硬件吃不消,太低又不能充分利用硬件。

一般要求两者比值超过 10%,计算方法如下:

 

max_used_connections / max_connections * 100% = 3/100 *100% ≈ 3%

  

 

 

查看最大连接数与响应最大连接数:

 

show variables like ‘%max_connections%‘;
show variables like ‘%max_user_connections%‘;

  

 

 

在配置文件 my.cnf 中修改最大连接数:

 

[mysqld]
max_connections = 100
max_used_connections = 20

  

 

 

③查询耗时 0.5 秒


建议将单次查询耗时控制在 0.5 秒以内,0.5 秒是个经验值,源于用户体验的 3 秒原则。如果用户的操作 3 秒内没有响应,将会厌烦甚至退出。

 

响应时间=客户端 UI 渲染耗时+网络请求耗时+应用程序处理耗时+查询数据库耗时,0.5 秒就是留给数据库 1/6 的处理时间。

 

④实施原则

 

相比 NoSQL 数据库,MySQL 是个娇气脆弱的家伙。它就像体育课上的女同学,一点纠纷就和同学闹别扭(扩容难),跑两步就气喘吁吁(容量小并发低),常常身体不适要请假(SQL 约束太多)。

 

如今大家都会搞点分布式,应用程序扩容比数据库要容易得多,所以实施原则是数据库少干活,应用程序多干活:

 

  • 充分利用但不滥用索引,须知索引也消耗磁盘和 CPU。

  • 不推荐使用数据库函数格式化数据,交给应用程序处理。

  • 不推荐使用外键约束,用应用程序保证数据准确性。

  • 写多读少的场景,不推荐使用唯一索引,用应用程序保证唯一性。

  • 适当冗余字段,尝试创建中间表,用应用程序计算中间结果,用空间换时间。

  • 不允许执行极度耗时的事务,配合应用程序拆分成更小的事务。

  • 预估重要数据表(比如订单表)的负载和数据增长态势,提前优化。

 

数据表设计

 

①数据类型

 

数据类型的选择原则,更简单或者占用空间更小:

 

  • 如果长度能够满足,整型尽量使用 tinyint、smallint、medium_int 而非 int。

  • 如果字符串长度确定,采用 char 类型。

  • 如果 varchar 能够满足,不采用 text 类型。

  • 精度要求较高的使用 decimal 类型,也可以使用 BIGINT,比如精确两位小数就乘以 100 后保存。

  • 尽量采用 timestamp 而非 datetime。

 

技术图片相比 datetime,timestamp 占用更少的空间,以 UTC 的格式储存自动转换时区。

 

②避免空值

 

MySQL 中字段为 NULL 时依然占用空间,会使索引、索引统计更加复杂。从 NULL 值更新到非 NULL 无法做到原地更新,容易发生索引分裂影响性能。

 

因此尽可能将 NULL 值用有意义的值代替,也能避免 SQL 语句里面包含 is not null 的判断。

③Text 类型优化

 

由于 Text 字段储存大量数据,表容量会很早涨上去,影响其他字段的查询性能。建议抽取出来放在子表里,用业务主键关联。

索引优化

索引分类如下:

  • 普通索引:最基本的索引。

  • 组合索引:多个字段上建立的索引,能够加速复合查询条件的检索。

  • 唯一索引:与普通索引类似,但索引列的值必须唯一,允许有空值。

  • 组合唯一索引:列值的组合必须唯一。

  • 主键索引:特殊的唯一索引,用于唯一标识数据表中的某一条记录,不允许有空值,一般用 primary key 约束。

  • 全文索引:用于海量文本的查询,MySQL 5.6 之后的 InnoDB 和 MyISAM 均支持全文索引。由于查询精度以及扩展性不佳,更多的企业选择 Elasticsearch。

 

索引优化原则:

  • 分页查询很重要,如果查询数据量超过 30%,MySQL 不会使用索引。

  • 单表索引数不超过 5 个、单个索引字段数不超过 5 个。

  • 字符串可使用前缀索引,前缀长度控制在 5-8 个字符。

  • 字段唯一性太低,增加索引没有意义,如:是否删除、性别。

  • 合理使用覆盖索引,如下所示:

 

select login_name, nick_name from member where login_name = ?

  

 

 

login_name, nick_name 两个字段建立组合索引,比 login_name 简单索引要更快。

 

SQL 优化

 

①分批处理

 

博主小时候看到鱼塘挖开小口子放水,水面有各种漂浮物。浮萍和树叶总能顺利通过出水口,而树枝会挡住其他物体通过,有时还会卡住,需要人工清理。

 

MySQL 就是鱼塘,最大并发数和网络带宽就是出水口,用户 SQL 就是漂浮物。

 

不带分页参数的查询或者影响大量数据的 update 和 delete 操作,都是树枝,我们要把它打散分批处理,下面举例说明。

 

业务描述:更新用户所有已过期的优惠券为不可用状态。

 

SQL 语句:

update status=0 FROM `coupon` WHERE expire_date <= #{currentDate} and status=1;

  

 

 

如果大量优惠券需要更新为不可用状态,执行这条 SQL 可能会堵死其他 SQL,分批处理伪代码如下:

 

int pageNo = 1;
int PAGE_SIZE = 100;
while(true) {
    List<Integer> batchIdList = queryList(‘select id FROM `coupon` WHERE expire_date <= #{currentDate} and status = 1 limit #{(pageNo-1) * PAGE_SIZE},#{PAGE_SIZE}‘);
    if (CollectionUtils.isEmpty(batchIdList)) {
        return;
    }
    update(‘update status = 0 FROM `coupon` where status = 1 and id in #{batchIdList}‘)
    pageNo ++;
}

  

 

 

②操作符 <> 优化

 

通常 <> 操作符无法使用索引,举例如下,查询金额不为 100 元的订单:

 

select id from orders where amount  != 100;

  

 

如果金额为 100 的订单极少,这种数据分布严重不均的情况下,有可能使用索引。

 

鉴于这种不确定性,采用 union 聚合搜索结果,改写方法如下:

 

(select id from orders where amount > 100)
 union all
(select id from orders where amount < 100 and amount > 0)

  

 

 

③OR 优化

 

在 Innodb 引擎下 OR 无法使用组合索引,比如:

 

select id,product_name from orders where mobile_no = ‘13421800407‘ or user_id = 100;

  

 

 

OR 无法命中 mobile_no + user_id 的组合索引,可采用 union,如下所示:

 

(select id,product_name from orders where mobile_no = ‘13421800407‘)
 union
(select id,product_name from orders where user_id = 100);

  

 

此时 id 和 product_name 字段都有索引,查询才最高效。

 

④IN 优化

 

IN 适合主表大子表小,EXIST 适合主表小子表大。由于查询优化器的不断升级,很多场景这两者性能差不多一样了。

 

尝试改为 Join 查询,举例如下:

 

select id from orders where user_id in (select id from user where level = ‘VIP‘);

  

 

 

采用 Join 如下所示:

 

select o.id from orders o left join user u on o.user_id = u.id where u.level = ‘VIP‘;

  

 

⑤不做列运算

 

通常在查询条件列运算会导致索引失效,如下所示,查询当日订单:

 

select id from order where date_format(create_time,‘%Y-%m-%d‘) = ‘2019-07-01‘;

  

 

 

date_format 函数会导致这个查询无法使用索引,改写后:

 

select id from order where create_time between ‘2019-07-01 00:00:00‘ and ‘2019-07-01 23:59:59‘;

  

 

 

⑥避免Select All

 

如果不查询表中所有的列,避免使用 SELECT *,它会进行全表扫描,不能有效利用索引。

 

⑦Like 优化

 

Like 用于模糊查询,举个例子(field 已建立索引):

 

SELECT column FROM table WHERE field like ‘%keyword%‘;

  

 

 

这个查询未命中索引,换成下面的写法:

 

SELECT column FROM table WHERE field like ‘keyword%‘;

  

 

 

去除了前面的 % 查询将会命中索引,但是产品经理一定要前后模糊匹配呢?全文索引 fulltext 可以尝试一下,但 Elasticsearch 才是终极武器。

 

⑧Join 优化

 

Join 的实现是采用 Nested Loop Join 算法,就是通过驱动表的结果集作为基础数据,通过该结数据作为过滤条件到下一个表中循环查询数据,然后合并结果。

 

如果有多个 Join,则将前面的结果集作为循环数据,再次到后一个表中查询数据。

 

驱动表和被驱动表尽可能增加查询条件,满足 ON 的条件而少用 Where,用小结果集驱动大结果集。

 

被驱动表的 Join 字段上加上索引,无法建立索引的时候,设置足够的 Join Buffer Size。

 

禁止 Join 连接三个以上的表,尝试增加冗余字段。

 

⑨Limit 优化

 

Limit 用于分页查询时越往后翻性能越差,解决的原则:缩小扫描范围,如下所示:

 

select * from orders order by id desc limit 100000,10 
耗时0.4秒
select * from orders order by id desc limit 1000000,10
耗时5.2秒

  

 

 

先筛选出 ID 缩小查询范围,写法如下:

 

select * from orders where id > (select id from orders order by id desc  limit 1000000, 1) order by id desc limit 0,10
耗时0.5秒

  

 

 

如果查询条件仅有主键 ID,写法如下:

 

select id from orders where id between 1000000 and 1000010 order by id desc
耗时0.3秒

  

 

如果以上方案依然很慢呢?只好用游标了,感兴趣的朋友阅读 JDBC 使用游标实现分页查询的方法。

 

其他数据库

 

技术图片

 

作为一名后端开发人员,务必精通作为存储核心的 MySQL 或 SQL Server,也要积极关注 NoSQL 数据库,他们已经足够成熟并被广泛采用,能解决特定场景下的性能瓶颈。

 

此文转载自https://mp.weixin.qq.com/s/NWt4eBNM43AjeTbyLPTCpQ

以上是关于为什么MySQL单表不能超过2000万行?的主要内容,如果未能解决你的问题,请参考以下文章

Mysql单表最大记录是多少

为什么说MySQL单表行数不要超过2000w?

为什么说MySQL单表行数不要超过2000w?

阿里一面:MySQL 单表数据最大不要超过多少行?为什么?这样回答满分!

MySQL 单表不要超过 2000W 行,靠谱吗?

MySQL 单表不要超过 2000W 行,靠谱吗?