spark3总结——分区数对带有初始值聚合操作的影响

简介: spark3总结——分区数对带有初始值聚合操作的影响

主题

在sparkRDD的转换操作中,有几个比较特殊的聚合操作,很容易受到分区数的影响,很容易迷惑初学者,比如fold,aggregate等,他们都有初始值zeroValue,在多分区数据集的情况下,初始值的加入和分区数的变化,会导致不同的计算结果。因为他们在分区内部做一次带有zeroValue的聚合后,在对不同分区聚合结果进行合并的时候,会再做一次带有zeroValue的聚合。我们看如下代码

package com.xhc.sparkscala
import org.apache.spark.{SparkConf, SparkContext}
object AggPartitionTest {
  def main(args: Array[String]): Unit = {
    // spark上下文
    val conf = new SparkConf().setAppName("AggPartitionTest").setMaster("local[*]")
    val sc = SparkContext.getOrCreate(conf)
    // 数据
    val data = Array(1, 2, 3, 4, 5)
    // 不同分区数进行聚合
    for (n <- 1 to 3){
      // 分区数据
      val distData = sc.parallelize(data).repartition(n)
      // 打印分区及分区数据
      distData.mapPartitionsWithIndex((idx, items)=>{items.map(x=>(idx, x))}).foreach(println)
      // 计算
      val foldResult = distData.fold(2)((a, b) => a + b)
      val aggResult = distData.aggregate(2)((a, b) => a + b, (c, d) => c + d)
      // 打印计算结果
      println("分区数:%d,fold结果:%d!".format(n, foldResult))
      println("分区数:%d,agg结果:%d!".format(n, aggResult))
    }
  }
}

运行结果如下:

分区及分区数据:
(0,1)
(0,2)
(0,3)
(0,4)
(0,5)
分区数:1,fold结果:19!
分区数:1,agg结果:19!
分区及分区数据:
(1,3)
(0,1)
(1,4)
(0,2)
(0,5)
分区数:2,fold结果:21!
分区数:2,agg结果:21!
分区及分区数据:
(0,4)
(1,2)
(2,1)
(0,5)
(2,3)
分区数:3,fold结果:23!
分区数:3,agg结果:23!

看到了吧!不同的分区会导致不同聚合结果,我们以fold为例,用图来说明一下上例中的计算过

aggregate计算过程的分析与此类似噢!!

作者这水平有限,有不足之处欢迎留言指正


相关文章
|
8月前
|
SQL 数据采集 分布式计算
Spark SQL中的聚合与窗口函数
Spark SQL中的聚合与窗口函数
|
SQL 分布式计算 Spark
如何在Spark中实现Count Distinct重聚合
Count Distinct是SQL查询中经常使用的聚合统计方式,用于计算非重复结果的数目。由于需要去除重复结果,Count Distinct的计算通常非常耗时。本文主要介绍在Spark中如何基于重聚合实现交互式响应的COUNT DISTINCT支持。
|
SQL JSON 分布式计算
【Spark】(task2)PySpark数据统计和分组聚合
1.2 保存读取的信息 步骤2:将读取的进行保存,表头也需要保存,这里可保存为csv或者json格式文件。
698 0
【Spark】(task2)PySpark数据统计和分组聚合
|
监控 NoSQL 流计算
海量监控日志基于EMR Spark Streaming SQL进行实时聚合
从EMR-3.21.0 版本开始将提供Spark Streaming SQL的预览版功能,支持使用SQL来开发流式分析作业。结果数据可以实时写入Tablestore。 本文以LogHub为数据源,收集ECS上的日志数据,通过Spark Streaming SQL进行聚合后,将流计算结果数据实时写入Tablestore,展示一个简单的日志监控场景。
5802 0
|
分布式计算 监控 NoSQL
海量监控日志基于EMR Spark Streaming SQL进行实时聚合
从EMR-3.21.0 版本开始将提供Spark Streaming SQL的预览版功能,支持使用SQL来开发流式分析作业。结果数据可以实时写入Tablestore。 本文以LogHub为数据源,收集ECS上的日志数据,通过Spark Streaming SQL进行聚合后,将流计算结果数据实时写入Tablestore,展示一个简单的日志监控场景。
|
2月前
|
分布式计算 大数据 Apache
ClickHouse与大数据生态集成:Spark & Flink 实战
【10月更文挑战第26天】在当今这个数据爆炸的时代,能够高效地处理和分析海量数据成为了企业和组织提升竞争力的关键。作为一款高性能的列式数据库系统,ClickHouse 在大数据分析领域展现出了卓越的能力。然而,为了充分利用ClickHouse的优势,将其与现有的大数据处理框架(如Apache Spark和Apache Flink)进行集成变得尤为重要。本文将从我个人的角度出发,探讨如何通过这些技术的结合,实现对大规模数据的实时处理和分析。
180 2
ClickHouse与大数据生态集成:Spark & Flink 实战
|
3月前
|
存储 分布式计算 算法
大数据-106 Spark Graph X 计算学习 案例:1图的基本计算、2连通图算法、3寻找相同的用户
大数据-106 Spark Graph X 计算学习 案例:1图的基本计算、2连通图算法、3寻找相同的用户
82 0
|
3月前
|
消息中间件 分布式计算 NoSQL
大数据-104 Spark Streaming Kafka Offset Scala实现Redis管理Offset并更新
大数据-104 Spark Streaming Kafka Offset Scala实现Redis管理Offset并更新
56 0
|
3月前
|
消息中间件 存储 分布式计算
大数据-103 Spark Streaming Kafka Offset管理详解 Scala自定义Offset
大数据-103 Spark Streaming Kafka Offset管理详解 Scala自定义Offset
115 0
|
2月前
|
SQL 机器学习/深度学习 分布式计算
Spark快速上手:揭秘大数据处理的高效秘密,让你轻松应对海量数据
【10月更文挑战第25天】本文全面介绍了大数据处理框架 Spark,涵盖其基本概念、安装配置、编程模型及实际应用。Spark 是一个高效的分布式计算平台,支持批处理、实时流处理、SQL 查询和机器学习等任务。通过详细的技术综述和示例代码,帮助读者快速掌握 Spark 的核心技能。
118 6