开发者社区> 问答> 正文

任务内存增长

Hi:最近在使用Flink(1.7.2)提交任务到yarn(per job),任务在yarn上运行几个小时就会被kill掉,观察到任务的内存一直在增长,任务提交时有内存参数设置,任务逻辑为kafka数据简单处理后,注册成table,使用窗口聚合,

大家有没有遇到类似的问题,原因是什么?怎么解决或者优化?谢谢!*来自志愿者整理的flink邮件归档

展开
收起
小阿怪 2021-12-07 22:38:10 558 0
1 条回答
写回答
取消 提交回答
  • 使用的是RocksDBStateBackend么,一般被YARN的node manager内存超用而kill是native 内存超用导致的。可以在Flink 参数env.java.opts.taskmanager里面加上 -XX:NativeMemoryTracking=detail [1],这样可以观察内存是否增长。另外你使用的内存配置和被kill时候的YARN的日志分别是什么呢,可以考虑增大JVM heap 申请的资源来变相加大向YARN申请的总内存,某种程度上可以缓解被kill的概率。

    [1] https://docs.oracle.com/javase/8/docs/technotes/guides/troubleshoot/tooldescr007.html*来自志愿者整理的flink邮件归档

    2021-12-08 10:30:10
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
内存取证与IaaS云平台恶意行 为的安全监控 立即下载
云服务器ECS内存增强型实例re6全新发布 立即下载
恒逸石化 -用计算消耗取代能源消耗 立即下载