开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

Flink CDC为什么在taskmanage和jobmanage之间会有这么大的数据包?

Flink CDC这个昨天查了一下akka是taskmanage和jobmanage之间作为通信的组件, 调大了 akka.framesize 的大小,已经加到了1.2G,但是今天又有超过1.2G的导致任务失败,现在只是采集一个单表数据,为什么在taskmanage和jobmanage之间会有这么大的数据包?

展开
收起
真的很搞笑 2023-09-28 09:27:41 60 0
1 条回答
写回答
取消 提交回答
  • Flink CDC 在 taskmanager 和 jobmanager 之间会有这么大的数据包,是因为 Flink CDC 使用 Checkpoint 机制来保证数据的一致性。当 taskmanager 执行任务时,会定期生成 Checkpoint,并将 Checkpoint 发送给 jobmanager。如果 taskmanager 发生故障,jobmanager 可以通过 Checkpoint 恢复 taskmanager 的运行状态。

    Checkpoint 是异步通信的,所以当 taskmanager 发送 Checkpoint 时,需要等待 jobmanager 确认 Checkpoint 成功接收。如果 Checkpoint 大小很大,就会导致 taskmanager 和 jobmanager 之间有这么大的数据包。

    为了减少 Checkpoint 的数据包大小,可以通过以下几种方法:

    减少 Checkpoint 的间隔时间。这样可以让 Checkpoint 更频繁地生成,从而减少每个 Checkpoint 的数据量。
    使用快照压缩。Flink CDC 支持使用快照压缩来减少 Checkpoint 的数据量。
    使用 RocksDB。如果 taskmanager 和 jobmanager 都使用 RocksDB,可以通过 RocksDB 的异步备份功能来减少 Checkpoint 的数据量。
    希望这些建议对您有所帮助。

    2023-10-18 10:18:16
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Flink CDC Meetup PPT - 龚中强 立即下载
    Flink CDC Meetup PPT - 王赫 立即下载
    Flink CDC Meetup PPT - 覃立辉 立即下载