Flink-CDC 采集 Oracle 数据发送到下游 kafka 或其他存储端时, 数据不断膨胀的问题 (例如: Oracle源库9千万, kafka端2~30亿), 如果不手动关闭采集程序数据就会一直进来
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
针对您遇到的Flink-CDC采集Oracle数据时,数据量在Kafka或其他存储端异常膨胀的问题,以下是一些可能的原因分析及解决方案:
检查并优化消费逻辑:
调整Debezium消息处理方式:
排查并断开循环同步链路:
精细化管理Schema变更:
监控与日志分析:
资源与配置审查:
请根据上述建议逐一排查并实施相应的解决方案,以解决数据膨胀的问题。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。