开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

Flink CDC开启事物精准一致之后,写kafka会有存在丢数据的情况嘛?

Flink CDC开启事物精准一致之后,写kafka会有存在丢数据的情况嘛?

展开
收起
真的很搞笑 2023-10-18 14:10:31 56 0
2 条回答
写回答
取消 提交回答
  • 不会,此回答整理自钉群“Flink CDC 社区”

    2023-10-18 18:31:15
    赞同 展开评论 打赏
  • 在Flink CDC开启事物精准一致之后,写入Kafka的数据应该是精确一致的,不会出现丢数据的情况。Flink CDC开启事物精准一致后,会保证所有事务的提交都成功,这样就可以确保所有写入Kafka的数据都是精确一致的。
    但是,如果你的Flink CDC集群出现了一些问题,例如网络延迟、硬件故障、软件错误等,可能会导致数据丢失。此外,如果你的Kafka集群出现了一些问题,例如网络延迟、硬件故障、软件错误等,也可能会导致数据丢失。因此,为了确保数据的准确性,你需要对Flink CDC集群和Kafka集群进行适当的监控和维护。

    2023-10-18 17:02:58
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Flink CDC Meetup PPT - 龚中强 立即下载
    Flink CDC Meetup PPT - 王赫 立即下载
    Flink CDC Meetup PPT - 覃立辉 立即下载