flink oracle cdc 增量阶段 可能会丢数据吗, 没有信息?
Flink Oracle CDC 的增量阶段不会丢数据。Oracle CDC 会使用 SELECT SCN FROM V$TRANSACTION V WHERE V$TRANSACTION.XID IS NULL 查询获取当前事务的 SCN,然后将这个 SCN 作为增量阶段的起始 SCN。当 Oracle 数据库中发生数据变更时,Oracle CDC 会将变更数据提交到 Kafka,并将变更数据对应的 SCN 也提交到 Kafka。那么,只要 Flink Oracle CDC 的增量阶段的起始 SCN 大于等于 Kafka 中提交的第一个 SCN,那么 Flink Oracle CDC 就不会丢数据。
如果 Flink Oracle CDC 的增量阶段的起始 SCN 小于 Kafka 中提交的第一个 SCN,那么 Flink Oracle CDC 可能会丢数据。因为 Flink Oracle CDC 在增量阶段不会读取 Kafka 中之前提交的数据。
为了避免数据丢失,可以使用以下方法:
在 Flink Oracle CDC 的任务启动前,将 Oracle 数据库中的所有数据提交到 Kafka。
在 Flink Oracle CDC 的任务中设置 useChangeStream 为 true。当设置为 true 时,Flink Oracle CDC 会在增量阶段读取 Kafka 中之前提交的数据。
在 Flink Oracle CDC 的任务中设置 resumeFromChangeStreamOffset 属性。该属性指定从 Kafka 中哪一个 SCN 开始读取数据。如果指定的 SCN 大于等于 Kafka 中提交的第一个 SCN,那么 Flink Oracle CDC 就不会丢数据。
如果您有任何其他问题,可以联系 Flink 社区寻求帮助。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。