Flink CDC这是什么原因导致的? 有什么解决方案么?用【flink run】的方式从 oceanbase 数据库同步数据到 doris 数据库中,同步完成后,如果在 oceanbase 数据库中对其进行增删更新操作,目标数据库 doris 中改数据没有被同步这些操作。
flink 版本: 1.15.0
flink cdc 版本: 2.4.2
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
根据用户描述,使用 Flink CDC(版本 2.4.2)通过 flink run 的方式从 OceanBase 数据库同步数据到 Doris 数据库时,全量同步完成后,OceanBase 数据库中的增删改操作未能同步到目标数据库 Doris 中。这表明增量同步阶段可能存在问题。
结合知识库资料,以下是可能导致该问题的原因及解决方案:
scan.incremental.snapshot.enabled=true。dts_record_id 和 dts_operation_flag 等字段。execution.checkpointing.interval 设置为更短的时间(如 1 分钟)。SELECT 权限:用于读取表数据。REPLICATION SLAVE 和 REPLICATION CLIENT 权限:用于读取增量日志。oblogproxy 的权限。fenodes、table.identifier、username 和 password 等参数正确无误。dts_utc_timestamp 和 dts_operation_flag 字段的解析逻辑正确。检查增量同步配置:
scan.incremental.snapshot.enabled=true)。验证数据源权限:
oblogproxy 配置是否正确。排查目标端写入问题:
升级 Flink CDC 版本:
调试日志解析:
通过以上步骤,您应能够定位并解决增量同步失败的问题。如果问题仍未解决,建议查看 Flink 作业日志,进一步分析具体错误信息。您可以复制页面截图提供更多信息,我可以进一步帮您分析问题原因。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。