开发者社区 问答 正文

spark的配置,executor.memoryOverhead这部分内存究竟是干嘛的?

请教个问题,spark的配置,executor.memoryOverhead这部分内存究竟是干嘛的?

文档上说vm overheads 之类的,没明白。

本问题来自阿里云开发者社区的【11大垂直技术领域开发者社群】。https://developer.aliyun.com/article/706511 点击链接欢迎加入感兴趣的技术领域群。

展开
收起
初商 2019-08-14 16:04:18 11176 分享 版权
1 条回答
写回答
取消 提交回答
  • 1.阿里云大学荣誉讲师, 2.MongoDB中文社区专家
    推荐回答

    spark执行的时候,可以通过spark.executor.memory来设置executor所需的内存大小。 spark.yarn.executor.memoryOverhead是executor所需的额外内存开销。 默认为max(executorMemory * 0.10,最小值为384)。 实际内存等于:executorMem= X+max(X*0.1,384)。

    2019-09-05 10:52:05
    赞同 展开评论