Flink CDC有使用ORACLE 分区表的CDC到Kafka 吗? 别的表正常,分区表总是报这个错误。String msg = "The db history topic or its content is fully or partially missing. Please check database history topic configuration and re-execute the snapshot.";
throw new DebeziumException(msg);
感觉读不到表结构,是什么地方配置错误吗?
Flink CDC确实支持Oracle分区表的CDC,但是在配置时需要特别注意。以下是一些可能的解决方案:
检查Flink CDC的配置:确保你的Flink CDC任务正确配置了Oracle分区表的CDC。这包括正确的JDBC URL、用户名、密码以及表名。
检查Oracle分区表的配置:确保你的Oracle分区表已经正确配置,并且所有的分区都已经存在。
检查Kafka的配置:确保你的Kafka主题已经正确配置,并且Flink CDC任务有权限访问该主题。
检查Flink CDC插件的版本:确保你的Flink CDC插件版本与你的Flink版本和Oracle版本兼容。
检查Flink CDC任务的日志:查看Flink CDC任务的日志,看是否有任何关于Oracle分区表的错误信息。
如果以上方法都无法解决问题,你可能需要查看Flink CDC的源码,以确定问题到底出在哪里。
最后,你也可以尝试重新执行Flink CDC任务的快照,看是否能够解决问题。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。