Mysql-Insert插入过慢的原因记录和解决

Posted 胡安民

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Mysql-Insert插入过慢的原因记录和解决相关的知识,希望对你有一定的参考价值。

场景

先来说下业务场景, A单位每天下发全量数据5万数据左右,我们需要将这5万条数据处理到主表中以及日志表中

我们现在的逻辑是,先将数据每次100条批量修改或者插入到主表中, 然后我们通过事件监听将每次插入或者修改的动作都记录到日志表中

问题: 因为我们插入日志表的时候是每次处理一条这样就导致了5万条日志数据,一个一个插入非常耗时,抱着能提升一点就提升一点的想法,我们看看插入还能优化吗?

先来说一下: mysql中单条语句原子性的,所以高并发情况下不会有安全性问题

说说插入会慢的影响因素:

  1. Mysql插入缓存(bulk_insert_buffer_size 默认是8M)
  2. 每条数据在插入的时候都要验证是否违反表中的约束条件(主键,唯一等)
  3. 构建新数据的索引
  4. innodb中,数据通常都是先写缓存,再写事务日志,再写入数据文件
  5. Mysql 每秒最大支持16384并发 ,但是默认只有151可以设置max_connections数量
  6. 服务器性能,cpu,硬盘,网络, 网络数据传输 ,代码解析
  7. 数据库事务影响

解决办法

先设置mysql的插入缓存bulk_insert_buffer_size=100M,确保一次能插入1000条数据
然后使用List方式记录需要插入的数据当达到1000条之后我们批量一次性插入insert into tablename values('xxx','xxx'),('yyy','yyy'),('zzz','zzz')...... 然后在清空List ,插入的过程中我们可以异步,不用等待结果的返回 ,通过上面的方案, 插入100万数据几十秒就完事了

为什么要这样解决呢?

因为批量插入其实就是访问一次数据量告诉数据库我需要执行这1000条的插入,而不是访问1000次数据库告诉数据库我要执行1条的插入所以使用批量插入大大的缩减客户端与数据库之间的连接、关闭等消耗 , 所以我们在上面的方案中使用一次提交批量数据的更新的语句,那么还有没其他的方式呢?

MySQL 的事务自动提交模式默认是开启的,其对 MySQL 的性能也有一定得影响。也就是说如果你执行1000 条插入语句,MySQL 就会提交 1000 次事物,这大大影响了插入数据的速度。我们还可以在代码中,手动开启事物也就是相当于希望事物内执行的语句要作为一个“不可分割”的整体去执行的任务当所有任务完毕后在提交事物,当然这样是没有批量插入快的但是也能节约不少时间的

点赞 -收藏-关注-便于以后复习和收到最新内容
有其他问题在评论区讨论-或者私信我-收到会在第一时间回复
在本博客学习的技术不得以任何方式直接或者间接的从事违反中华人民共和国法律,内容仅供学习、交流与参考
免责声明:本文部分素材来源于网络,版权归原创者所有,如存在文章/图片/音视频等使用不当的情况,请随时私信联系我、以迅速采取适当措施,避免给双方造成不必要的经济损失。
感谢,配合,希望我的努力对你有帮助^_^

记录一次mysql导入千万条测试数据过慢的问题!

数据库在没有做任何优化的情况下,使用存储过程,插入1千万条测试数据。

CREATE PROCEDURE addmaxdata(IN n int)
BEGIN
DECLARE i INT DEFAULT 1;
START TRANSACTION;
WHILE (i <= n ) DO
INSERT INTO maxdata (name,createdate) VALUES (CONCAT(‘loser超‘,last_insert_id()),NOW());
set i=i+1;
END WHILE;
commit;
END

 

需要手动提交事务,把事务放在外面,等所有数据插入后,在手动提交事务,在时间上是一个质的飞越。不然的话,每次循环插入一条数据数据库就会自动开启一个事务来提交,占用很大的时间。

 










以上是关于Mysql-Insert插入过慢的原因记录和解决的主要内容,如果未能解决你的问题,请参考以下文章

python pip 安装包下载过慢的解决方法

解决mysql导入数据文件过慢的问题

postgresql 数据库 INSERT 或 UPDATE 大量数据时速度慢的原因分析

粗糙记录网站加载过慢的一次排查经历

解决maven项目构建过慢的方法

JCIFS读取远程服务器文件过慢的解决方法