开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

Flink CDC + JDBC Connector 怎么保证端到端的一致性?

Flink CDC + JDBC Connector 怎么保证端到端的一致性?

展开
收起
游客cum3jectrqmmy 2022-01-19 15:59:03 1690 0
1 条回答
写回答
取消 提交回答
  • 1.源端是数据库的 binlog 日志,全量读取阶段发生异常可以再次做全量读取,增量同步时,Flink CDC 中会记录读取的 binlog 位点信息,可以 replay。

    2.Flink CDC 作为 Source 组件,是通过 Flink Checkpoint 机制,周期性持久化存储数据库日志文 件消费位移和状态等信息(StateBackend 将 checkpoint 持久化),记录消费位点和写入目标 库是一个原子操作,保证发生 failure 时不丢数据,实现 Exactly Once。

    3.JDBC Sink Connecotr 是通过写入时保证 Upsert 语义,从而保证下游的写入幂等性,实现 Exactly Once。

    资料来源:《Flink CDC:新一代数据集成框架》,下载链接:https://developer.aliyun.com/topic/download?id=8256。

    2022-01-20 10:47:46
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Flink CDC Meetup PPT - 龚中强 立即下载
    Flink CDC Meetup PPT - 王赫 立即下载
    Flink CDC Meetup PPT - 覃立辉 立即下载