如果用flinkcdc将postgres数据同步到kafka。首次全量同步的时候怎么办程序挂掉重启?

如果用flink cdc将postgres数据同步到kafka。首次全量同步的时候,程序挂掉重启,又会从头读取,导致kafka队列中的数据存在大量的重复。有没有啥好的办法呢?

展开
收起
十一0204 2023-08-16 08:03:05 140 发布于江西 分享
分享
版权
举报
1 条回答
写回答
取消 提交回答
  • 意中人就是我呀!

    一般这种会在sink端进行业务id去重,及时重复也不影响。看sink端数据库支不支持,或者你使用upsert-kafka。此答案整理至钉群“Flink CDC 社区“。

    2023-08-16 08:45:06 举报
    赞同 评论

    评论

    全部评论 (0)

    登录后可评论

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

还有其他疑问?
咨询AI助理
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等