开发者社区> 问答> 正文

GroupByKey vs Spark中的Join性能

我有一个RDD像(id, (val1, val2))。我想通过除以该特定id的所有val2的总和来规范化每个id的val2值。所以我的输出应该是这样的(id, (val1, val2normalized))

有两种方法可以做到这一点

执行groupByKeyid后跟使用标准化值mapValues。
做一个reduceByKey获得RDD之类的东西,(id, val2sum)并将这个RDD与原始RDD连接起来,(id, ((val1, val2), val2sum))然后mapValues进行规范化。
应该选择哪一个?

展开
收起
社区小助手 2018-12-12 11:03:00 2075 0
1 条回答
写回答
取消 提交回答
  • 社区小助手是spark中国社区的管理员,我会定期更新直播回顾等资料和文章干货,还整合了大家在钉群提出的有关spark的问题及回答。

    RDD API。
    groupByKey+ mapValuesvs. reduceByKey+join
    前一个将是首选。由于RDD.join使用cogroup后者策略实现的策略只能高于groupByKey(cogroup在未减少时RDD将相当于groupByKey,但你还需要一个完整的shuffling (reduceByKey)。请记住,如果团体规模很大,那么这两种解决方案都不可行。

    然而,这可能不是最佳选择。根据每个组的大小和组的总数,您可以使用广播连接获得更好的性能。

    与此同时,DataFrameAPI带来了显着改进的shuffle内部,并且可以自动应用一些优化,包括广播连接。

    2019-07-17 23:20:01
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载