开发者社区 问答 正文

任务内存增长

Hi:最近在使用Flink(1.7.2)提交任务到yarn(per job),任务在yarn上运行几个小时就会被kill掉,观察到任务的内存一直在增长,任务提交时有内存参数设置,任务逻辑为kafka数据简单处理后,注册成table,使用窗口聚合,

大家有没有遇到类似的问题,原因是什么?怎么解决或者优化?谢谢!*来自志愿者整理的flink邮件归档

展开
收起
小阿怪 2021-12-07 22:38:10 580 分享 版权
1 条回答
写回答
取消 提交回答
  • 使用的是RocksDBStateBackend么,一般被YARN的node manager内存超用而kill是native 内存超用导致的。可以在Flink 参数env.java.opts.taskmanager里面加上 -XX:NativeMemoryTracking=detail [1],这样可以观察内存是否增长。另外你使用的内存配置和被kill时候的YARN的日志分别是什么呢,可以考虑增大JVM heap 申请的资源来变相加大向YARN申请的总内存,某种程度上可以缓解被kill的概率。

    [1] https://docs.oracle.com/javase/8/docs/technotes/guides/troubleshoot/tooldescr007.html*来自志愿者整理的flink邮件归档

    2021-12-08 10:30:10
    赞同 展开评论