flink on yarn提交作业,无论怎么设置,yarn上总是比自己设置的ftm和fjm内存多两个G,这是什么原因,有大佬知道吗?
在使用Flink on YARN模式提交作业时,您遇到的实际内存使用比设置的flink.taskmanager.memory.process.size
(FTM)和flink.jobmanager.memory.process.size
(FJM)多出两个G的情况,可能是由以下原因导致的:
yarn.nodemanager.vmem-check-enabled
来控制的。如果这个参数设置为false,那么容器可以使用超过其申请的内存量。yarn.scheduler.maximum-allocation-vcores
和yarn.scheduler.maximum-allocation-mb
,可能会限制每个作业的最大资源分配,从而影响到实际可用的内存量。yarn.application-master.memory.mb
和yarn.taskmanager.memory.mb
等。综上所述,为了解决这个问题,您可以尝试调整YARN和Flink的相关配置参数,检查YARN集群的内存预留策略,以及监控YARN节点上的其他系统进程和服务的内存使用情况。同时,确保您使用的Flink和YARN版本是兼容的,并且根据您的作业特性合理配置资源。如果问题依旧存在,建议查阅Flink和YARN的官方文档,或者在相关社区和论坛中寻求帮助。
是不是yarn上配置的,container的最小内存,就有这么多了 ,此回答整理自钉群“【③群】Apache Flink China社区”
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。