Flink写入Hudi使用bucket index,写入数据量不大,怎么解决?

Flink写入Hudi使用bucket index,使用rocksdb作为backend,执行时bucket_write 这一步 checkpoint 时间非常长,但是写入数据量不大,怎么解决? 图片.png

展开
收起
wenti 2023-02-27 22:10:11 1006 分享 版权
1 条回答
写回答
取消 提交回答
  • 月移花影,暗香浮动

    Flink写入Hudi时,可以通过调整bucket index的大小来解决写入数据量不大的问题。可以通过调整Hudi的配置参数hudi.write.recordkey.field.separator来控制bucket index的大小,从而控制写入数据量的大小。

    2023-03-01 11:00:53
    赞同 展开评论

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

收录在圈子:
实时计算 Flink 版(Alibaba Cloud Realtime Compute for Apache Flink,Powered by Ververica)是阿里云基于 Apache Flink 构建的企业级、高性能实时大数据处理系统,由 Apache Flink 创始团队官方出品,拥有全球统一商业化品牌,完全兼容开源 Flink API,提供丰富的企业级增值功能。
还有其他疑问?
咨询AI助理