开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

下面的问题怎么处理啊?

flink cdc 在保证一致性时,同步全量数据时,不做cp,是这样吗?同步全量数据过程中失败了,之前的数据丢失,然后从头重新开始?如果做cp后,作业failover后重新拉起来,是从上一次cp恢复是吗?那比如每10钟做一次cp,作业跑到15分钟失败,然后自动拉起,从10分钟开始重新同步数据,之前5分钟的数据是不用已经写入到sink端了?这样会不会造成数据重复呢?

展开
收起
solitude. 2023-02-20 10:42:32 189 0
1 条回答
写回答
取消 提交回答
  • 全量是否做checkpoint貌似跟版本有关,checkpoint持久化算子状态到状态后端,从状态恢复会从上一次完整的checkpoint恢复,这跟你说的10min,15min不会有影响。此回答整理自钉钉群”Flink CDC 社区“

    2023-02-20 20:01:15
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关电子书

更多
低代码开发师(初级)实战教程 立即下载
冬季实战营第三期:MySQL数据库进阶实战 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载