开发者社区> 问答> 正文

Kafka 与 extractly-once

请教一下,我设置 checkpoint 的时间是 5 分钟,如果在这 5 分钟之内,某个 task 挂了,然后又重新拉起。我是不是可以理解为这时候从 checkpoint 的数据获得的是这 5 分钟之前的 Kafka offset,但是这 5 分钟之内的消息已经消费,流向下游。重新拉起之后,source 重放,那么这时候这 5 分钟的数据会再次被消费麽?如果再次消费,那么怎么保证 Extractly-Once 呢?*来自志愿者整理的flink邮件归档

展开
收起
毛毛虫雨 2021-12-08 11:07:54 428 0
1 条回答
写回答
取消 提交回答
  • 你好,应该是配合kafka 事务,在checkpoint的时候做事务提交,下游只读取commit的消息就能保证exactly-once,当然,会丧失一定的时效性*来自志愿者整理的flink邮件归档

    2021-12-08 19:29:16
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
消息队列kafka介绍 立即下载
消息队列 Kafka 版差异化特性 立即下载
Spark Streaming-as-aService with Kafka and YARN 立即下载