开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

当mysql源数据过大,要把数据迁移走,便迁移表数据时,又不想影响flink-cdc任务,要怎么办?

当mysql源数据过大,要把数据迁移走,便迁移表数据时,又不想影响flink-cdc任务,要怎么办?因为delete的事件也反应在cdc任务中了,这样会导致之前的统计数据也一并被清楚,这种情况该怎么处理?

展开
收起
游客uu65yiq7myioi 2023-03-13 14:17:59 268 0
1 条回答
写回答
取消 提交回答
  • 简单啊,定个时间,cdc任务从某时删除数据的时候开始不执行写入——该回答整理自钉群“Flink CDC 社区”

    2023-03-13 22:48:00
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    搭建电商项目架构连接MySQL 立即下载
    搭建4层电商项目架构,实战连接MySQL 立即下载
    PolarDB MySQL引擎重磅功能及产品能力盛大发布 立即下载

    相关镜像