开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

Flink写入Hudi使用bucket index,写入数据量不大,怎么解决?

Flink写入Hudi使用bucket index,使用rocksdb作为backend,执行时bucket_write 这一步 checkpoint 时间非常长,但是写入数据量不大,怎么解决? 图片.png

展开
收起
wenti 2023-02-27 22:10:11 932 0
1 条回答
写回答
取消 提交回答
  • 月移花影,暗香浮动

    Flink写入Hudi时,可以通过调整bucket index的大小来解决写入数据量不大的问题。可以通过调整Hudi的配置参数hudi.write.recordkey.field.separator来控制bucket index的大小,从而控制写入数据量的大小。

    2023-03-01 11:00:53
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Flink CDC Meetup PPT - 龚中强 立即下载
    Flink CDC Meetup PPT - 王赫 立即下载
    Flink CDC Meetup PPT - 覃立辉 立即下载