记录一次批量插入的优化历程

简介: 一、前言     测试妹子反馈了一个bug,说后台报了个服务器异常——保存一个数量比较大的值时,比如 9999,一直在转圈圈,直到最后报了一个服务器异常。我接过了这个bug,经过仔细查看代码后发现,代码卡在了一个批量插入的SQL语句上,就是比如前端保存 9999 的时候,后端的业务逻辑要进行 9999 次的批量插入。

一、前言

    测试妹子反馈了一个bug,说后台报了个服务器异常——保存一个数量比较大的值时,比如 9999,一直在转圈圈,直到最后报了一个服务器异常。我接过了这个bug,经过仔细查看代码后发现,代码卡在了一个批量插入的SQL语句上,就是比如前端保存 9999 的时候,后端的业务逻辑要进行 9999 次的批量插入。

二、方案一

    最开始的SQL语句是这样的,传入一个List,由MyBatis 处理这个 List 拼接成一个SQL语句并执行,看着也没有什么大问题呀!

        INSERT INTO yy_marketing_coupon
        (
        uuid,
        no,
        name,
        type,
        money,
        status,
        instruction,
        astrict,
        total_number,
        remain_number,
        send_mode,
        get_mode,
        use_mode,
        user_rank_lower,
        send_start_time,
        send_end_time,
        use_start_time,
        use_end_time,
        use_expire_time,
        discount,
        user_mobiles,
        create_time,
        creater,
        update_time,
        updater,
        appid,
        use_car_type,
        highest_money,
        term_type,
        coupon_template_uuid,
        gift_uuid,
        city_uuids,
        city_names
        )
        VALUES
        <foreach collection="list" item="item" index="index" separator=",">
            (
            #{item.uuid},
            (select FN_CREATE_COUPON_NO(1)),
            #{item.name},
            #{item.type},
            #{item.money},
            #{item.status},
            #{item.instruction},
            #{item.astrict},
            #{item.totalNumber},
            #{item.remainNumber},
            #{item.sendMode},
            #{item.getMode},
            #{item.useMode},
            #{item.userRankLower},
            #{item.sendStartTime},
            #{item.sendEndTime},
            #{item.useStartTime},
            #{item.useEndTime},
            #{item.useExpireTime},
            #{item.discount},
            #{item.userMobiles},
            #{item.createTime},
            #{item.creater},
            #{item.updateTime},
            #{item.updater},
            #{item.appid},
            #{item.useCarType},
            #{item.highestMoney},
            #{item.termType},
            #{item.couponTemplateUuid},
            #{item.giftUuid},
            #{item.cityUuids},
            #{item.cityNames}
            )
        </foreach>
View Code

    这个仅仅是插入1000条数据的耗时量,快两分钟了,这怎么得了?

三、方案二

    经过我们公司的架构师介绍说,要不用 Spring 的 jdbcTemplate 的 batchUpdate() 方法来执行批量插入吧!听过会走二级缓存?

1、applicationContext.xml

    <bean id="jdbcTemplate" class="org.springframework.jdbc.core.JdbcTemplate">
        <property name="dataSource" ref="dataSource"/>
    </bean>

2、数据库连接配置 url 中需要加上允许执行批量插入:rewriteBatchedStatements=true

3、jdbcTemplate 的批量插入代码如下:

String sql = "INSERT INTO " +
        " yy_marketing_coupon(uuid,no,name,type,money,status,instruction,astrict,total_number," +
        "remain_number,send_mode,get_mode,use_mode,user_rank_lower,send_start_time,send_end_time," +
        "use_start_time,use_end_time,use_expire_time,discount,user_mobiles,create_time,creater," +
        "update_time,updater,appid,use_car_type,highest_money,term_type,coupon_template_uuid,gift_uuid," +
        "city_uuids,city_names) " +
        " values (?,(select FN_CREATE_COUPON_NO(1)),?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?,?)";
List<Object[]> batchArgs = new LinkedList<>();
int size = marketingCouponListDo.size();
for (int i = 0; i < size; i++) {
    MarketingCouponDto dto = marketingCouponListDo.get(i);
    Object[] objects = {
            dto.getUuid(),
            dto.getName(),
            dto.getType(),
            dto.getMoney(),
            dto.getStatus(),
            dto.getInstruction(),
            dto.getAstrict(),
            dto.getTotalNumber(),
            dto.getRemainNumber(),
            dto.getSendMode(),
            dto.getGetMode(),
            dto.getUseMode(),
            dto.getUserRankLower(),
            dto.getSendStartTime(),
            dto.getSendEndTime(),
            dto.getUseStartTime(),
            dto.getUseEndTime(),
            dto.getUseExpireTime(),
            dto.getDiscount(),
            dto.getUserMobiles(),
            dto.getCreateTime(),
            dto.getCreater(),
            dto.getUpdateTime(),
            dto.getUpdater(),
            dto.getAppid(),
            dto.getUseCarType(),
            dto.getHighestMoney(),
            dto.getTermType(),
            dto.getCouponTemplateUuid(),
            dto.getGiftUuid(),
            dto.getCityUuids(),
            dto.getCityNames()
    };
    batchArgs.add(objects);
}
jdbcTemplate.batchUpdate(sql, batchArgs);
View Code

    

    怎么会这样呢?我几乎是崩溃的,怎么还越来越慢了?!

四、数据库优化

    现在我就在考虑了,会不会不是程序问题导致的呢?会不会是数据库性能导致的呢?联想到最近公司刚从云服务上撤了下来,改成自己搭建服务器和数据库。数据库并没有经过什么优化参数设置。所以,我觉得我这个猜想还是有可行性的!

1、>  vim /etc/my.cnf

2、数据库参数做了如下优化设置:

#缓存innodb表的索引,数据,插入数据时的缓冲,操作系统内存的70%-80%最佳
innodb_buffer_pool_size = 4096M
#配置成cpu的线程数
innodb_thread_concurrency = 24
#查询缓存大小,必须设置成1024的整数倍
query_cache_size = 128M
#为一次插入多条新记录的INSERT命令分配的缓存区长度(默认设置是8M)。
bulk_insert_buffer_size = 256M
#上传的数据包大小(默认是4M)
max_allowed_packet=16M
#join语句使用的缓存大小,适当增大到1M左右,内存充足的话可以增加到2MB
join_buffer_size = 2M
#数据进行排序的时候用到的缓存,一般设置成2-4M
sort_buffer_size = 4M
#随机读缓存区大小,最大2G
read_rnd_buffer_size = 32M

3、重启数据库 > service mysqld restart

    好,再来试一下,结果发现并没有什么卵用,插入数据库还是一样的龟速!那么,到底问题出在哪里呢?!

五、方案三

    架构师又介绍了我一种 Spring+Mybatis 的 sqlSessionTemplate 来批量插入数据,闻言效率更高!

1、applicationContext.xml

<bean id="sqlSessionTemplate" class="org.mybatis.spring.SqlSessionTemplate">
    <constructor-arg index="0" ref="sqlSessionFactory" />
</bean>

2、依赖注入

@Autowired
private SqlSessionTemplate sqlSessionTemplate;

3、sqlSessionTemplate 的批量插入代码如下:

SqlSession session = sqlSessionTemplate.getSqlSessionFactory().openSession(ExecutorType.BATCH, false);
MarketingCouponMapper mapper = session.getMapper(MarketingCouponMapper.class);
int size = marketingCouponListDo.size();
try {
    for (int i = 0; i < size; i++) {
        MarketingCouponDto marketingCouponDto = marketingCouponListDo.get(i);
        mapper.add(marketingCouponDto);
        if (i % 1000 == 0 || i == size - 1) {
            //手动每1000个一个提交,提交后无法回滚
            session.commit();
            //清理缓存,防止溢出
            session.clearCache();
        }
    }
}catch (Exception e){
    session.rollback();
}finally {
    session.close();
}

    测试后发现速度依然没有什么有效的提升,我要炸了!到底问题出在哪里呢?我想我是不是方向走错了?是不是根本不是程序的效率问题?

六、解决问题

    最后,我发现,那条简单的插入语句有个不起眼的地方,(select FN_CREATE_COUPON_NO(1)) — 调用执行过程,我试着把这个调用换成了一个字符串 '111111' 插入,一下子执行速度就提升上来了,我的天,终于找到这个罪魁祸首了!接着怎么优化呢?仔细看看这个存储过程的逻辑,发现也没做什么大的业务,那何不把它提出来写在程序中呢?存储过程的业务代码我就不贴了。

    

    这才是1000条插入应该有的速度嘛!棒棒哒~

七、结语

    走了这么多弯路,才醒悟,最被忽略的才是最重要的!

    该文旨在介绍多种处理批量插入的方式,解决问题的思路不一定适用,毕竟最后发现完全走错了路...

目录
相关文章
|
6月前
|
SQL 关系型数据库 MySQL
项目中遇到一张900w的数据表把原先要花费17s执行的SQL优化到300ms经验加100哈哈哈
项目中遇到一张900w的数据表把原先要花费17s执行的SQL优化到300ms经验加100哈哈哈
58 1
|
1月前
|
关系型数据库 MySQL 数据库
MySQL技术深度解析:每次最大插入条数探秘
MySQL技术深度解析:每次最大插入条数探秘
49 0
|
3月前
|
SQL 数据处理 数据库
SQL进阶之路:深入解析数据更新与删除技巧——掌握批量操作、条件筛选、子查询和事务处理,提升数据库维护效率与准确性
【8月更文挑战第31天】在数据库管理和应用开发中,数据的更新和删除至关重要,直接影响数据准确性、一致性和性能。本文通过具体案例,深入解析SQL中的高级更新(UPDATE)和删除(DELETE)技巧,包括批量更新、基于条件的删除以及使用子查询和事务处理复杂场景等,帮助读者提升数据处理能力。掌握这些技巧能够有效提高数据库性能并确保数据一致性。
78 0
|
3月前
|
SQL NoSQL 关系型数据库
13 秒插入 30 万条数据,这才是批量插入正确的姿势!
【8月更文挑战第9天】在数据处理和数据库管理中,高效批量插入数据是一项至关重要的技能。无论是大数据分析、日志处理还是业务数据快速导入,高效的批量插入能力都能显著提升系统性能和用户体验。今天,我们就来深入探讨如何在极短时间内(如13秒内)向数据库批量插入30万条数据,分享那些被验证过的高效技术和最佳实践。
198 0
【SQL开发实战技巧】系列(七):从有重复数据前提下如何比较出两个表中的差异数据及对应条数聊起
本篇文章讲解的主要内容是:***如果有重复数据如何检查出两个表中的差异数据及对应条数、表连接做聚合容易出现重复计算的错误、多表查询空值处理问题、NOT IN的子查询范围不能是空值,否则查询结果为空。***
【SQL开发实战技巧】系列(七):从有重复数据前提下如何比较出两个表中的差异数据及对应条数聊起
|
SQL 缓存 关系型数据库
【MySQL技术之旅】(6)一直都倾向于优化查询,这次学习一下优化Insert插入语句
【MySQL技术之旅】(6)一直都倾向于优化查询,这次学习一下优化Insert插入语句
166 0
|
SQL 存储 数据库
SQL基础【二十、索引】(超细致版本,前理论,后实践,应对sql面试绰绰有余)(二)
SQL基础【二十、索引】(超细致版本,前理论,后实践,应对sql面试绰绰有余)(二)
167 0
SQL基础【二十、索引】(超细致版本,前理论,后实践,应对sql面试绰绰有余)(二)
|
SQL 存储 数据库
SQL基础【二十、索引】(超细致版本,前理论,后实践,应对sql面试绰绰有余)(四)
SQL基础【二十、索引】(超细致版本,前理论,后实践,应对sql面试绰绰有余)(四)
141 0
SQL基础【二十、索引】(超细致版本,前理论,后实践,应对sql面试绰绰有余)(四)
|
SQL 存储 数据库
SQL基础【二十、索引】(超细致版本,前理论,后实践,应对sql面试绰绰有余)(一)
SQL基础【二十、索引】(超细致版本,前理论,后实践,应对sql面试绰绰有余)(一)
129 0
SQL基础【二十、索引】(超细致版本,前理论,后实践,应对sql面试绰绰有余)(一)