开发者社区> 问答> 正文

大批量数据的插入mysql 效率低 有啥好的优化办法

大批量数据的插入mysql 效率低 有啥好的优化办法 本问题来自阿里云开发者社区的【11大垂直技术领域开发者社群】。 点击链接欢迎加入感兴趣的技术领域群。

展开
收起
游客pklijor6gytpx 2019-10-12 14:33:36 1021 0
1 条回答
写回答
取消 提交回答
  • GitHub: https://github.com/chenhaoxiang

    拼接sql,一条SQL语句插入多条数据 在事务中进行插入处理

    但是都注意不要太大,有数据大小控制的 SQL语句是有长度限制,在进行数据合并在同一SQL中务必不能超过SQL长度限制,通过max_allowed_packet配置可以修改,默认是1M,测试时修改为8M。 事务需要控制大小,事务太大可能会影响执行的效率。MySQL有innodb_log_buffer_size配置项,超过这个值会把innodb的数据刷到磁盘中,这时,效率会有所下降。所以比较好的做法是,在数据达到这个这个值前进行事务提交。

    2019-10-12 16:29:49
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
搭建电商项目架构连接MySQL 立即下载
搭建4层电商项目架构,实战连接MySQL 立即下载
PolarDB MySQL引擎重磅功能及产品能力盛大发布 立即下载

相关镜像