Spark RDD 机制理解吗?RDD 的五大属性,RDD、DataFrame、DataSet 三者的关系,RDD 和 DataFrame 的区别,Spark 有哪些分区器【重要】

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: Spark RDD 机制理解吗?RDD 的五大属性,RDD、DataFrame、DataSet 三者的关系,RDD 和 DataFrame 的区别,Spark 有哪些分区器【重要】

一、Spark RDD 机制:【重要】

RDD(Resilient Distributed DataSet)叫做弹性分布式数据集,是 Spark 中最基本的数据处理模型,也是 Spark 进行高并发和高吞吐的数据处理三大数据结构之一,所有的算子都是基于 RDD 来执行的,不同的场景有不同的 RDD 实现类,他们互相之间可以进行转换,来实现特定的需求。RDD 代表一个弹性、可分区、不可变、里面的元素可并行计算的集合。

➢ 弹性:

  • 存储的弹性:内存与磁盘可以自动切换;RDD 的数据默认存放在内存中,当内存资源不足时,spark 会自动将 RDD 数据写入磁盘。
  • 容错的弹性:数据丢失可以自动恢复;RDD 可以通过自己的数据来源重新计算该 partition
  • 计算的弹性:计算出错的话,可以进行重试机制;
  • 分片的弹性:可根据需要重新进行分片

分布式:数据存储在大数据集群不同节点上;

数据集:RDD 封装了计算逻辑,并不会保存数据;

不可变:RDD 封装了计算逻辑,是不可以改变的,想要改变,只能产生新的 RDD,在新的 RDD 里面封装计算逻辑;

可分区、并行计算:RDD 在逻辑上是一个 HDFS 文件,在抽象上是一种元素集合。它是可以被分区的,每个分区分布在集群中的不同结点上,从而让 RDD 中的数据可以被并行操作。

Spark 计算框架为了能够进行高并发和高吞吐的数据处理,封装了三大数据结构,用于处理不同的应用场景。三大数据结构分别是:

RDD : 弹性分布式数据集

累加器:分布式共享只写变量

广播变量:分布式共享只读变量

二、RDD 的五大属性

* Internally, each RDD is characterized by five main properties:
 *
 *  - A list of partitions
 *  - A function for computing each split
 *  - A list of dependencies on other RDDs
 *  - Optionally, a Partitioner for key-value RDDs (e.g. to say that the RDD is hash-partitioned)
 *  - Optionally, a list of preferred locations to compute each split on (e.g. block locations for
 *    an HDFS file)

1. 分区列表:RDD 数据结构中存在分区列表,用于执行任务时并行计算,是实现分布式计算的重要属性。

protected def getPartitions: Array[Partition]

2. 分区计算函数:Spark 在计算时,会使用分区函数对每一个分区进行计算。

def compute(split: Partition, context: TaskContext): Iterator[T]

3.RDD 之间的依赖关系:RDD 是计算模型的封装,当需求中需要将多个计算模型进行组合时,就需要将多个 RDD 建立依赖关系。

protected def getDependencies: Seq[Dependency[_]] = deps

4. 分区器(可选):当数据为 KV 类型数据时,可以通过设定分区器自定义数据的分区。

@transient val partitioner: Option[Partitioner] = None

5. 首选位置(可选):计算数据时,可以根据计算结点的状态选择不同的结点位置进行计算。

protected def getPreferredLocations(split: Partition): Seq[String] = Nil

 

三、RDD、DataFrame、DataSet 三者的关系

早期 SparkSQL 为了简化 RDD 的开发,提高开发效率,对 SparkCore 进行了一些封装,提供了 2 个编程抽象,分别是 DataFrame 和 DataSet。

这三个数据结构分别计算后,都可以给出相同的结果,不同的是它们的执行效率和执行方式。

三者的共性:

  • RDD、DataFrame、DataSet 都是 Spark 平台下的弹性分布式数据集,为处理大型数据提供便利。
  • 三者都有惰性机制,在进行创建、转换等操作时不会立即执行,只有触发行动算子时才会执行。
  • 在对 DataFrame 和 DataSet 进行操作时都需要导入隐式转换的包 “import spark.implicits”
  • 三者都会根据 Spark 的内存情况自动缓存运算,所以即使数据量很大,也不用担心内存溢出。
  • DataFrame 和 DataSet 均可使用模式匹配获取各个字段的值和类型。
  • 三者都有 partition 的概念、以及有许多共同的函数,如 filter、排序等。

三者之间的互相转换:

四、RDD 和 DataFrame 的区别

RDD 和 DataFrame 均是 Spark 平台对数据的一种抽象,DataFrame 是一种以 RDD 为基础的分布式数据集,类似于传统数据库中的二维表格。

DataFrame 与 RDD 的主要区别在于,DataFrame 关心数据的结构,RDD 不关心数据的结构,只关心数据是什么。比如给个数据 1,RDD 不关心 1 代表什么意思,只关心 1、2、3 就够了,而 DataFrame 更关心 1 所代表的含义,比如它是个年龄 age,那么在 SQL 查询的时候就会方便很多,它可以利用已知的结构信息来提升执行的效率、减少数据的读取,所以 DataFrame 可以简化 RDD 的开发,提高开发效率。

 

五、Spark 有哪些分区器?

spark 默认是提供了两种分区器,HashPartitioner 和 RangePartitioner

但是有的时候不能满足我们实际的需求,这个时候我们可以自定义一个分区器 。

自定义分区器流程:

(1)继承 Partitioner(2)重写方法(numPartitions、getPartition)

相关实践学习
基于MaxCompute的热门话题分析
Apsara Clouder大数据专项技能认证配套课程:基于MaxCompute的热门话题分析
相关文章
|
分布式计算 数据处理 Apache
Spark和Flink的区别是什么?如何选择?都应用在哪些行业?
【10月更文挑战第10天】Spark和Flink的区别是什么?如何选择?都应用在哪些行业?
1363 1
|
9月前
|
存储 缓存 分布式计算
【赵渝强老师】Spark RDD的缓存机制
Spark RDD通过`persist`或`cache`方法可将计算结果缓存,但并非立即生效,而是在触发action时才缓存到内存中供重用。`cache`方法实际调用了`persist(StorageLevel.MEMORY_ONLY)`。RDD缓存可能因内存不足被删除,建议结合检查点机制保证容错。示例中,读取大文件并多次调用`count`,使用缓存后执行效率显著提升,最后一次计算仅耗时98ms。
206 0
【赵渝强老师】Spark RDD的缓存机制
|
10月前
|
缓存 分布式计算 资源调度
Spark 与 MapReduce 的 Shuffle 的区别?
MapReduce 和 Spark 在 Shuffle 过程中有显著区别。MapReduce 采用两阶段模型,中间数据写入磁盘,I/O 开销大;而 Spark 使用基于内存的多阶段执行模型,支持操作合并和内存缓存,减少 I/O。Spark 的 RDD 转换优化减少了 Shuffle 次数,提升了性能。此外,Spark 通过 lineage 实现容错,资源管理更灵活,整体大数据处理效率更高。
|
12月前
|
分布式计算 资源调度 Hadoop
Spark Standalone与YARN的区别?
本文详细解析了 Apache Spark 的两种常见部署模式:Standalone 和 YARN。Standalone 模式自带轻量级集群管理服务,适合小规模集群;YARN 模式与 Hadoop 生态系统集成,适合大规模生产环境。文章通过示例代码展示了如何在两种模式下运行 Spark 应用程序,并总结了两者的优缺点,帮助读者根据需求选择合适的部署模式。
491 3
|
分布式计算 资源调度 Hadoop
Spark Standalone与YARN的区别?
【10月更文挑战第5天】随着大数据处理需求的增长,Apache Spark 成为了广泛采用的大数据处理框架。本文详细解析了 Spark Standalone 与 YARN 两种常见部署模式的区别,并通过示例代码展示了如何在不同模式下运行 Spark 应用程序。Standalone 模式自带轻量级集群管理,适合小规模集群或独立部署;YARN 则作为外部资源管理器,能够与 Hadoop 生态系统中的其他应用共享资源,更适合大规模生产环境。文章对比了两者的资源管理、部署灵活性、扩展性和集成能力,帮助读者根据需求选择合适的部署模式。
200 1
|
12月前
|
SQL JSON 分布式计算
【赵渝强老师】Spark SQL的数据模型:DataFrame
本文介绍了在Spark SQL中创建DataFrame的三种方法。首先,通过定义case class来创建表结构,然后将CSV文件读入RDD并关联Schema生成DataFrame。其次,使用StructType定义表结构,同样将CSV文件读入RDD并转换为Row对象后创建DataFrame。最后,直接加载带有格式的数据文件(如JSON),通过读取文件内容直接创建DataFrame。每种方法都包含详细的代码示例和解释。
246 0
|
SQL 分布式计算 大数据
大数据-94 Spark 集群 SQL DataFrame & DataSet & RDD 创建与相互转换 SparkSQL
大数据-94 Spark 集群 SQL DataFrame & DataSet & RDD 创建与相互转换 SparkSQL
307 0
|
缓存 分布式计算 大数据
大数据-90 Spark 集群 RDD 编程-高阶 RDD容错机制、RDD的分区、自定义分区器(Scala编写)、RDD创建方式(一)
大数据-90 Spark 集群 RDD 编程-高阶 RDD容错机制、RDD的分区、自定义分区器(Scala编写)、RDD创建方式(一)
201 0
|
分布式计算 算法 大数据
大数据-90 Spark 集群 RDD 编程-高阶 RDD容错机制、RDD的分区、自定义分区器(Scala编写)、RDD创建方式(二)
大数据-90 Spark 集群 RDD 编程-高阶 RDD容错机制、RDD的分区、自定义分区器(Scala编写)、RDD创建方式(二)
190 0
|
存储 分布式计算 供应链
Spark在供应链核算中应用问题之调整Spark读取ODPS离线表分区大小如何解决
Spark在供应链核算中应用问题之调整Spark读取ODPS离线表分区大小如何解决