各位大佬,oracle 19c到flink cdc 2.2.1到starrocks,导入5张表只有2张既有全量也有增量,剩余3张只能传全量,flink版本1.13.3,flink页面上的任务也没有报错..有大佬遇到过类似问题嘛
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
针对您遇到的问题,从知识库中挖掘的有效信息和分析如下:
您在使用Oracle 19c作为数据源,通过Flink CDC 2.2.1版本将数据流转到StarRocks时,发现5张表中只有2张表能够正常接收全量及增量数据,而其余3张表仅能接收到全量数据,且Flink任务管理界面未显示任何错误信息。您的Flink版本为1.13.3。
- 配置差异:可能是因为针对这5张表的配置不一致,特别是与CDC相关的配置或者sink端的配置(如sink.buffer-flush.max-bytes
, sink.buffer-flush.max-rows
等)。 - 表结构或变更日志问题:部分表未能正确捕获增量更新可能是由于表的变更日志记录存在问题,或者是Flink CDC未能正确解析这些表的变更事件。 - 兼容性问题:尽管没有直接提及,但不同版本的软件间可能存在兼容性问题,需确认Flink CDC、Flink以及StarRocks之间的版本是否完全兼容。
检查并统一配置:
审查表结构与日志:
版本兼容性验证:
监控与日志分析:
测试与逐步排查:
请根据上述分析和建议逐一排查,希望能帮助您解决问题。如果问题依旧,建议在相关技术社区或论坛发帖求助,提供更详细的日志信息,以便获得更专业的技术支持。
参考资料: - [1] StarRocks 数据摄入配置项您可以复制页面截图提供更多信息,我可以进一步帮您分析问题原因。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。