flink cdc1.13不需要做完ck就能实时sink数据,但是flink更高版本需要做完ck才能sink数据,怎么才能做到1.13一样的效果呢?
在Flink 1.13及更早版本中,使用CDC(Change Data Capture)时,Flink支持在没有完成完整的Checkpoint之前就开始向下游Sink发送数据。这种模式称为"Exactly-Once"模式,它依赖于Flink的TwoPhaseCommitSinkFunction,该功能允许在提交事务之前预写日志(预提交),从而可以在检查点完成之前开始发送数据。然而,这种方式可能会导致数据丢失或重复,因为如果在提交Checkpoint之前发生故障,预提交的数据可能需要被回滚。
在Flink的后续版本中,为了保证更强的一致性,Flink默认要求在完成Checkpoint之后才开始发送数据。这被称为"Exactly-once"语义,确保在系统崩溃或故障恢复后能够准确恢复状态。
如果你希望在Flink的更高版本中实现类似Flink 1.13的效果,即在完成Checkpoint之前就开始实时Sink数据,可以考虑以下几种方法:
checkpointingMode
为ASYNC
来启用异步模式。请注意,这些调整可能会影响系统的整体一致性和可靠性,因此在进行任何更改之前,都需要充分评估其对整个系统的影响。在生产环境中,建议遵循Flink的默认配置,以确保数据的一致性。如果需要实时性,可以优化Checkpoint策略,而不是完全放弃一致性保证。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。