开发者社区> 问答> 正文

Spark的转换数据是如何完成计算的呢?

已解决

Spark的转换数据是如何完成计算的呢?

展开
收起
每天一个小bug 2022-08-03 08:51:01 554 0
1 条回答
写回答
取消 提交回答
  • 推荐回答

    所有的数据一开始都是从HDFS存储中取出的, 取出后创建RDD数据集, 在图中有两个最初始创建的数据集,一个是RDDA, 一个是RDDC两者都是从HDFS取出的数据,共同生成了弹性分布式数据集, 而A中含有三个分片可能存储于不同的数据结点上, C同理。而A经过转换操作到B,C经过转换到D后再通过转换操作reduceByKey变成E。最 后通过join操作将B和E生成F, 其中ABCDE大的长方形就是DAG图的每个结点, 即最后结点F经过Action操作计算结果, 将其又存储到HDFS中。以上就是Spark的转换数据计算全过程。 QQ图片20220803122326.jpg

    2022-08-03 13:03:55
    赞同 展开评论 打赏
问答分类:
问答地址:
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载