开发者社区 问答 正文

Spark中spark.yarn.executor.memoryOverhead参数是啥意思呢?

Spark中spark.yarn.executor.memoryOverhead参数是啥意思呢?

展开
收起
bnbajjyhyjfty 2021-12-12 15:42:16 813 分享
分享
版权
举报
1 条回答
写回答
取消 提交回答
  • 申请executor的堆外内存,默认单位是MB 。主要用于JVM自身,字符串NIOBuffer等开销

    单个executor的总内存是:sparkexecutormemory+sparkyarnexecutor memoryOverhead

    2021-12-12 15:42:54 举报
    赞同 评论

    评论

    全部评论 (0)

    登录后可评论