开发者社区> 问答> 正文

Flink1.10执行sql超出内存限制被yarn杀掉怎么解决?

大家好,我在用flink1.10执行sql时,当数据比较大的时候,3T左右,100多亿条数据,在执行hash和sort的时候经常超出内存限制,被yarn杀掉,我的tm给了40g内存,每个有10个slot,每个slot3g内存。我也试过给更大的内存,但是没什么效果。不知道这是什么原因?*来自志愿者整理的flink邮件归档

展开
收起
塔塔塔塔塔塔 2021-12-02 17:49:51 1178 0
1 条回答
写回答
取消 提交回答
  • 建议使用 Profiling 工具查看下堆内内存的使用情况,或者使用 MAT 

    等内存泄漏分析工具,找出具体的瓶颈所在(有可能是用户自定义的数据结构导致的问题)。如果发现堆内占用不大,则可能是堆外内存(native 

    部分)导致的,那么也可以用 jemalloc 和 jeprof 等工具来辅助定位。*来自志愿者整理的FLINK邮件归档

    2021-12-02 18:15:32
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Flink CDC Meetup PPT - 龚中强 立即下载
Flink CDC Meetup PPT - 王赫 立即下载
Flink CDC Meetup PPT - 覃立辉 立即下载