开发者社区 > 大数据与机器学习 > 大数据开发治理DataWorks > 正文

从mc处理好数据往MySQL写入的时候,数据量很大,写入会很慢。这个情况有什么解决方案吗

从mc处理好数据往MySQL写入的时候,数据量很大,写入会很慢。这个情况有什么解决方案吗

展开
收起
雪哥哥 2022-11-27 20:50:40 331 0
1 条回答
写回答
取消 提交回答
  • 我给题主你几个建议吧

    1. 尝试使用批量插入,将多条记录放在一个SQL语句中,而不是一条一条的插入,这样可以提高写入的效率。

    2. 尝试使用存储过程,将多条记录放在一个存储过程中,而不是一条一条的插入,这样可以提高写入的效率。

    3. 尝试使用多线程,将多条记录放在多个线程中,而不是一条一条的插入,这样可以提高写入的效率。

    4. 尝试使用索引,为表中的字段建立索引,这样可以提高查询和写入的效率。

    5. 尝试使用缓存,将数据先写入缓存,然后再一次性写入MySQL,这样可以提高写入的效率。

    2023-01-18 10:54:42
    赞同 展开评论 打赏

DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。

热门讨论

热门文章

相关电子书

更多
搭建电商项目架构连接MySQL 立即下载
搭建4层电商项目架构,实战连接MySQL 立即下载
PolarDB MySQL引擎重磅功能及产品能力盛大发布 立即下载

相关镜像