楼主你好,看看这个: 对FlinkCDC-Hudi入湖程序进行了极限压测,也因此炸出了很多坑,一些是内存不够引起的,一些是bug引起的。相应坑点与解决方法记录如下。
内存不足时,表现出的异常有很多种,有各种time out,gc overhead,oom等。内存不足导致taskmanager重启时,大概率会产生数据丢失,因为重启后的运行状态不一定能与出异常时的状态完成一致。这时只能重新拉取数据。所以FlinkCDC-Hudi作业一定要配置足够的内存资源,否则出现的异常可能会影响数据的可用性。这种问题直接加大内存来解决。
内存不足主要原因是hudi merge on read 表在compact时需要大量额外的内存。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。