使用flink1.17.2(flinkcdc 3.0.1) 使用flink sql往hudi表中吐数据,在Flink CDC中,直接将我生成的application会话kill掉了,有人遇到过吗?
使用Flink 1.17.2和Flink CDC 3.0.1时,如果遇到Flink作业被kill的情况,可能是由于资源限制、内存溢出或配置问题导致的。您可以检查以下几点:
确认作业配置的并行度是否合理,避免资源耗尽。
检查Flink的内存设置,确保有足够空间处理数据。
查看Flink的Web UI或日志,寻找导致作业失败的具体错误信息。
分析Hudi表的写入策略,确保与Flink CDC的配置兼容。
可参考文档
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。