开发者社区 > 大数据与机器学习 > 正文

请问在使用Flink CDC中mongo cdc的时候,全量数据同步完成后,不会同步增量数据,这种?

请问在使用Flink CDC中mongo cdc的时候,全量数据同步完成后,不会同步增量数据,这种问题有人遇到过吗,我建了一个issue: https://github.com/ververica/flink-cdc-connectors/issues/2183?增量数量的量不小,我直接用mongo change stream是可以拉到数据的

展开
收起
真的很搞笑 2023-06-11 15:18:30 142 0
1 条回答
写回答
取消 提交回答
  • may be 你的增量数据还到sink 到hudi的条件,除非你配置了每条数据都sink到了hudi,一般这种场景很多都是微批 sink,你在cdc启动后到增量后试试在mongo端多写点数据,100条。1000条,mongo change stream当然是可以拉取数据,你需要看下hudi sink的条件,此回答整理自钉群“Flink CDC 社区”

    2023-06-11 15:22:18
    赞同 展开评论 打赏

大数据领域前沿技术分享与交流,这里不止有技术干货、学习心得、企业实践、社区活动,还有未来。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Flink CDC Meetup PPT - 龚中强 立即下载
    Flink CDC Meetup PPT - 王赫 立即下载
    Flink CDC Meetup PPT - 覃立辉 立即下载