Flink CDC表的全量数据分片,第一片和最后一片是没有最小或最大范围的,如果做全量扫描时数据量大,会导致内存里做数据合并时内存溢出吗?
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
https://github.com/ververica/flink-cdc-connectors/issues/1375 有issue 反馈过最后一个分片太大导致oom的问题,这种通常是同步数据的时候业务还在实时写数据,暂时只能加TM的内存来跳过这个问题,后面估计会修复掉,此回答整理自钉群“Flink CDC 社区”