Spark 原理_逻辑图_RDD 之间的关系_一对一 | 学习笔记

简介: 快速学习 Spark 原理_逻辑图_RDD 之间的关系_一对一

开发者学堂课程【大数据 Spark 2020版(知识精讲与实战演练)第三阶段Spark 原理_逻辑图_RDD 之间的关系_一对一】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址:https://developer.aliyun.com/learning/course/689/detail/12012


Spark 原理_逻辑图_RDD 之间的关系_一对一


内容简介

一、了解逻辑图

二、RDD 之间有哪些依赖关系

三、总结

 

一、逻辑图是什么

逻辑图就是数据处理和存储的过程

1.RDD 的生成

2.RDD 的依赖关系

 

二、RDD 之间的依赖关系

image.png

1.如图所示,上方框表示的是 RDD 的变量,下方框表示的是 RDD 的类型,中间框代表的是 RDD 的计算

其中 HIDFS file 有三个分片(block),通过 textfile 算子生成了 textRDD

注释:为什么这里 textfile 算子生成了 mappartitionsRDD, 而非hadoopRDD?

因为 hadoopRDD 生成后,会再调用 map 算子进行转换操作,就生成了 mappartitionsRDD

HIDFS file 中的 block b1对应了 textRDD 中的分区 p1,通过计算进行转换

TextRDD HIDFS file 上读取内容后通过转换,拆分,展平后,生成 splitRDD,调用 flatmap 算子实现

SplitRDD 的分区数据经过 map 算子变成 tupleRDD 中对应的分区数据

探讨两个 RDD 之间的关系,应该从分区着手,一个 RDD 的分区与另一个 RDD 的分区之间是什么关系

其中 textRDDsplitRDD tupleRDD p1是一对一的关系。

2.什么是关系(依赖关系)?

从算子视角上来看,splitRDD 通过 map 算子得到了 tupleRDD,所以 splitRDD tupleRDD 之间的关系是 map

但是仅仅这样说,会不够全面,从细节上来看,RDD 只是数据和关于数据的计算,而具体执行这种计算得出结果的是一个神秘的其他组件,所以,这两个 RDD 的关系可以表示为 splitRDD 的数据通过 map 操作,被传入 tupleRDD,这是它们之间更细化的关系

但是 RDD 这个概念本身并不是数据容器,数据真正应该存放的地方是 RDD 的分区,所以如果把视角放在数据这一层面上的话,直接讲这两个 RDD 之间有关系是不科学的,应该从这两个 RDD 的分区之间的关系来探讨它们之间的关系

3.那这些分区之间是什么关系?
如果仅仅说 splitRDD tupleRDD 之间的话,那它们的分区之间就是一对一的关系

但是 tupleRDD reduceRDD 呢?

TupleDD 通过算子 reduceByKey 生成 reduceRDD,而这个算子是一个 shuffle 操作,shuffle 操作的两个 RDD 的分区之间并不是一对一,reduceByKey 的一个分区对应 tupleRDD 的多个分区

 

三、总结:

1.RDD 之间的依赖关系不是指 RDD 之间的关系,而是分区之间的关系

2.Map flatmap 这些算子的两个 RDD 之间的分区是 one to one

目录
打赏
0
0
0
0
127
分享
相关文章
【赵渝强老师】Spark中的RDD
RDD(弹性分布式数据集)是Spark的核心数据模型,支持分布式并行计算。RDD由分区组成,每个分区由Spark Worker节点处理,具备自动容错、位置感知调度和缓存机制等特性。通过创建RDD,可以指定分区数量,并实现计算函数、依赖关系、分区器和优先位置列表等功能。视频讲解和示例代码进一步详细介绍了RDD的组成和特性。
165 0
【赵渝强老师】Spark RDD的缓存机制
Spark RDD通过`persist`或`cache`方法可将计算结果缓存,但并非立即生效,而是在触发action时才缓存到内存中供重用。`cache`方法实际调用了`persist(StorageLevel.MEMORY_ONLY)`。RDD缓存可能因内存不足被删除,建议结合检查点机制保证容错。示例中,读取大文件并多次调用`count`,使用缓存后执行效率显著提升,最后一次计算仅耗时98ms。
117 0
【赵渝强老师】Spark RDD的缓存机制
【赵渝强老师】Spark RDD的依赖关系和任务阶段
Spark RDD之间的依赖关系分为窄依赖和宽依赖。窄依赖指父RDD的每个分区最多被一个子RDD分区使用,如map、filter操作;宽依赖则指父RDD的每个分区被多个子RDD分区使用,如分组和某些join操作。窄依赖任务可在同一阶段完成,而宽依赖因Shuffle的存在需划分不同阶段执行。借助Spark Web Console可查看任务的DAG图及阶段划分。
214 15
大数据-99 Spark 集群 Spark Streaming DStream 文件数据流、Socket、RDD队列流
大数据-99 Spark 集群 Spark Streaming DStream 文件数据流、Socket、RDD队列流
92 0
大数据-97 Spark 集群 SparkSQL 原理详细解析 Broadcast Shuffle SQL解析过程(一)
大数据-97 Spark 集群 SparkSQL 原理详细解析 Broadcast Shuffle SQL解析过程(一)
220 0
大数据-97 Spark 集群 SparkSQL 原理详细解析 Broadcast Shuffle SQL解析过程(二)
大数据-97 Spark 集群 SparkSQL 原理详细解析 Broadcast Shuffle SQL解析过程(二)
168 0
大数据-94 Spark 集群 SQL DataFrame & DataSet & RDD 创建与相互转换 SparkSQL
大数据-94 Spark 集群 SQL DataFrame & DataSet & RDD 创建与相互转换 SparkSQL
248 0
大数据≠大样本:基于Spark的特征降维实战(提升10倍训练效率)
本文探讨了大数据场景下降维的核心问题与解决方案,重点分析了“维度灾难”对模型性能的影响及特征冗余的陷阱。通过数学证明与实际案例,揭示高维空间中样本稀疏性问题,并提出基于Spark的分布式降维技术选型与优化策略。文章详细展示了PCA在亿级用户画像中的应用,包括数据准备、核心实现与效果评估,同时深入探讨了协方差矩阵计算与特征值分解的并行优化方法。此外,还介绍了动态维度调整、非线性特征处理及降维与其他AI技术的协同效应,为生产环境提供了最佳实践指南。最终总结出降维的本质与工程实践原则,展望未来发展方向。
从“笨重大象”到“敏捷火花”:Hadoop与Spark的大数据技术进化之路
从“笨重大象”到“敏捷火花”:Hadoop与Spark的大数据技术进化之路
233 79
ClickHouse与大数据生态集成:Spark & Flink 实战
【10月更文挑战第26天】在当今这个数据爆炸的时代,能够高效地处理和分析海量数据成为了企业和组织提升竞争力的关键。作为一款高性能的列式数据库系统,ClickHouse 在大数据分析领域展现出了卓越的能力。然而,为了充分利用ClickHouse的优势,将其与现有的大数据处理框架(如Apache Spark和Apache Flink)进行集成变得尤为重要。本文将从我个人的角度出发,探讨如何通过这些技术的结合,实现对大规模数据的实时处理和分析。
521 2
ClickHouse与大数据生态集成:Spark & Flink 实战

热门文章

最新文章

AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等

登录插画

登录以查看您的控制台资源

管理云资源
状态一览
快捷访问