开发者社区> 问答> 正文

MaxCompute Spark中Driver Memory的原因及解决方案是什么?

MaxCompute Spark中Driver Memory的原因及解决方案是什么?

展开
收起
芯在这 2021-12-12 22:59:48 1010 0
1 条回答
写回答
取消 提交回答
  • 代码可能使用了collect操作将过大的数据集收集到Driver节点

    在代码创建了过大的数组,或者加载过大的数据集到Driver进程汇总

    SparkContext,DAGScheduler都是运行在Driver端的。对应rdd的Stage切分也是在Driver端运行,如果用户自己写的程序有过多的步骤,切分出过多的Stage,这部分信息消耗的是Driver的内存,这个时候就需要调大Driver的内存。有时候如果stage过多,Driver端甚至会有栈溢出

    2021-12-12 23:00:18
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载