开发者社区> 问答> 正文

spark中如何防止shuffle后内存溢出?

spark中如何防止shuffle后内存溢出?

展开
收起
芯在这 2021-12-11 22:32:21 752 0
1 条回答
写回答
取消 提交回答
  • shuffle内存溢出的情况可以说都是shuffle后,单个文件过大导致的。在Spark中,join,reduceByKey这一类型的过程,都会有shuffle的过程,在shuffle的使用,需要传入一个partitioner,大部分Spark中的shuffle操作,默认的partitioner都是HashPatitioner,默认值是父RDD中最大的分区数,这个参数通过spark.default.parallelism控制(在spark-sql中用spark.sql.shuffle.partitions) , spark.default.parallelism参数只对HashPartitioner有效,所以如果是别的Partitioner或者自己实现的Partitioner就不能使用spark.default.parallelism这个参数来控制shuffle的并发量了。如果是别的partitioner导致的shuffle内存溢出,就需要从partitioner的代码增加partitions的数量。

    2021-12-11 22:32:39
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
EXTENDING SPARK WITH JAVA AGENTS 立即下载
Spark Streaming At Bing Scale 立即下载
云服务器ECS内存增强型实例re6全新发布 立即下载