flink on yarn(BATCH) iceberg跑批处理,iceberg不能边写边提交,一直堵在内存中导致一直gc
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
针对您在使用Flink on Yarn(BATCH)模式处理Iceberg表时遇到的内存问题,导致频繁GC并阻塞任务执行,以下是一些建议和解决方案:
bulk_insert
模式,这有助于减少小文件生成,从而降低内存压力。相较于upsert
或insert
模式,批量写入可以在一定程度上减少内存中的中间状态。通过上述措施,您可以有效缓解批处理作业中由Iceberg写操作导致的内存占用过高及频繁GC问题,提升作业运行效率。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。