SPARK中的wholeStageCodegen全代码生成--GenerateUnsafeProjection.createCode说明

简介: SPARK中的wholeStageCodegen全代码生成--GenerateUnsafeProjection.createCode说明

背景


对于在在RangeExec中出现的GenerateUnsafeProjection.createCode的方法进行说明


分析


对应的代码为:

  def createCode(
      ctx: CodegenContext,
      expressions: Seq[Expression],
      useSubexprElimination: Boolean = false): ExprCode = {
    val exprEvals = ctx.generateExpressions(expressions, useSubexprElimination)
    val exprSchemas = expressions.map(e => Schema(e.dataType, e.nullable))
    val numVarLenFields = exprSchemas.count {
      case Schema(dt, _) => !UnsafeRow.isFixedLength(dt)
      // TODO: consider large decimal and interval type
    }
    val rowWriterClass = classOf[UnsafeRowWriter].getName
    val rowWriter = ctx.addMutableState(rowWriterClass, "rowWriter",
      v => s"$v = new $rowWriterClass(${expressions.length}, ${numVarLenFields * 32});")
    // Evaluate all the subexpression.
    val evalSubexpr = ctx.subexprFunctionsCode
    val writeExpressions = writeExpressionsToBuffer(
      ctx, ctx.INPUT_ROW, exprEvals, exprSchemas, rowWriter, isTopLevel = true)
//   println(s"writeExpressions: $writeExpressions")
    val code =
      code"""
         |$rowWriter.reset();
         |$evalSubexpr
         |$writeExpressions
       """.stripMargin
    // `rowWriter` is declared as a class field, so we can access it directly in methods.
//    println(s"code: $code")
    ExprCode(code, FalseLiteral, JavaCode.expression(s"$rowWriter.getRow()", classOf[UnsafeRow]))
  }

其中 expressions的值为Seq(BoundReference(0, long, false))

useSubexpreElimination为false


val exprEvals = ctx.generateExpressions(expressions, useSubexprElimination)

这里只是代码生成,exprEvals的值就是range_value_0

因为useSubexprElimination 是false,所以不会进行公共代码的消除

val exprSchemas = expressions.map(e => Schema(e.dataType, e.nullable))

得到对应的表达式的schema

val numVarLenFields =

计算出非固定长度字段的个数,用于初始化UnsafeRowWriter

val rowWriter =

定义并初始化rowWriter,该rowWriter是全局范围的,生成的代码如下:

 private org.apache.spark.sql.catalyst.expressions.codegen.UnsafeRowWriter[] range_mutableStateArray_0 = new org.apache.spark.sql.catalyst.expressions.codegen.UnsafeRowWriter[3];
 public void init(int index, scala.collection.Iterator[] inputs) {
 ...
 range_mutableStateArray_0[0] = new org.apache.spark.sql.catalyst.expressions.codegen.UnsafeRowWriter(1, 0);
 }

val evalSubexpr = ctx.subexprFunctionsCode

这里为空字符串

val writeExpressions = writeExpressionsToBuffer

private def writeExpressionsToBuffer(
    ctx: CodegenContext,
    row: String,
    inputs: Seq[ExprCode],
    schemas: Seq[Schema],
    rowWriter: String,
    isTopLevel: Boolean = false): String = {
  val resetWriter = if (isTopLevel) {
    // For top level row writer, it always writes to the beginning of the global buffer holder,
    // which means its fixed-size region always in the same position, so we don't need to call
    // `reset` to set up its fixed-size region every time.
    if (inputs.map(_.isNull).forall(_ == FalseLiteral)) {
      // If all fields are not nullable, which means the null bits never changes, then we don't
      // need to clear it out every time.
      ""
    } else {
      s"$rowWriter.zeroOutNullBytes();"
    }
  } else {
    s"$rowWriter.resetRowWriter();"
  }
  val writeFields = inputs.zip(schemas).zipWithIndex.map {
    case ((input, Schema(dataType, nullable)), index) =>
      val dt = UserDefinedType.sqlType(dataType)
      val setNull = dt match {
        case t: DecimalType if t.precision > Decimal.MAX_LONG_DIGITS =>
          // Can't call setNullAt() for DecimalType with precision larger than 18.
          s"$rowWriter.write($index, (Decimal) null, ${t.precision}, ${t.scale});"
        case CalendarIntervalType => s"$rowWriter.write($index, (CalendarInterval) null);"
        case _ => s"$rowWriter.setNullAt($index);"
      }
      val writeField = writeElement(ctx, input.value, index.toString, dt, rowWriter)
      if (!nullable) {
        s"""
           |${input.code}
           |${writeField.trim}
         """.stripMargin
      } else {
        s"""
           |${input.code}
           |if (${input.isNull}) {
           |  ${setNull.trim}
           |} else {
           |  ${writeField.trim}
           |}
         """.stripMargin
      }
  }
  val writeFieldsCode = if (isTopLevel && (row == null || ctx.currentVars != null)) {
    // TODO: support whole stage codegen
    writeFields.mkString("\n")
  } else {
    assert(row != null, "the input row name cannot be null when generating code to write it.")
    ctx.splitExpressions(
      expressions = writeFields,
      funcName = "writeFields",
      arguments = Seq("InternalRow" -> row))
  }
  s"""
     |$resetWriter
     |$writeFieldsCode
   """.stripMargin
}

val resetWriter =

因为inputs为null为false,所以resetWriter的值为空字符串


val writeFields =

因为inputs的类型是LONG类型,所以对应到val writeField = writeElement(ctx, input.value, index.toString, dt, rowWriter)代码为:

case _ => s"$writer.write($index, $input);",所以生成的代码为:

 range_mutableStateArray_0[0].write(0, range_value_0)
  • val writeFieldsCode =以及后面的代码组装
    对每一个变量的赋值按照换行符进行分隔。
  • val code =
    组装成ExprCode的code部分,生成的代码如下:
range_mutableStateArray_0[0].reset();
range_mutableStateArray_0[0].write(0, range_value_0);

最后ExprCode的完整部分如下:

 ExprCode(range_mutableStateArray_0[0].reset();
range_mutableStateArray_0[0].write(0, range_value_0);,false,(range_mutableStateArray_0[0].getRow()))


相关文章
|
SQL 分布式计算 Spark
Spark中的WholeStageCodegenExec(全代码生成)
Spark中的WholeStageCodegenExec(全代码生成)
801 0
Spark中的WholeStageCodegenExec(全代码生成)
|
SQL 分布式计算 Spark
SPARK中的wholeStageCodegen全代码生成--以aggregate代码生成为例说起(10)
SPARK中的wholeStageCodegen全代码生成--以aggregate代码生成为例说起(10)
274 0
|
分布式计算 Java Spark
SPARK中的wholeStageCodegen全代码生成--以aggregate代码生成为例说起(3)
SPARK中的wholeStageCodegen全代码生成--以aggregate代码生成为例说起(3)
337 0
|
7月前
|
人工智能 分布式计算 大数据
大数据≠大样本:基于Spark的特征降维实战(提升10倍训练效率)
本文探讨了大数据场景下降维的核心问题与解决方案,重点分析了“维度灾难”对模型性能的影响及特征冗余的陷阱。通过数学证明与实际案例,揭示高维空间中样本稀疏性问题,并提出基于Spark的分布式降维技术选型与优化策略。文章详细展示了PCA在亿级用户画像中的应用,包括数据准备、核心实现与效果评估,同时深入探讨了协方差矩阵计算与特征值分解的并行优化方法。此外,还介绍了动态维度调整、非线性特征处理及降维与其他AI技术的协同效应,为生产环境提供了最佳实践指南。最终总结出降维的本质与工程实践原则,展望未来发展方向。
408 0
|
分布式计算 大数据 Apache
ClickHouse与大数据生态集成:Spark & Flink 实战
【10月更文挑战第26天】在当今这个数据爆炸的时代,能够高效地处理和分析海量数据成为了企业和组织提升竞争力的关键。作为一款高性能的列式数据库系统,ClickHouse 在大数据分析领域展现出了卓越的能力。然而,为了充分利用ClickHouse的优势,将其与现有的大数据处理框架(如Apache Spark和Apache Flink)进行集成变得尤为重要。本文将从我个人的角度出发,探讨如何通过这些技术的结合,实现对大规模数据的实时处理和分析。
1025 2
ClickHouse与大数据生态集成:Spark & Flink 实战
|
10月前
|
存储 分布式计算 Hadoop
从“笨重大象”到“敏捷火花”:Hadoop与Spark的大数据技术进化之路
从“笨重大象”到“敏捷火花”:Hadoop与Spark的大数据技术进化之路
546 79
|
存储 分布式计算 算法
大数据-106 Spark Graph X 计算学习 案例:1图的基本计算、2连通图算法、3寻找相同的用户
大数据-106 Spark Graph X 计算学习 案例:1图的基本计算、2连通图算法、3寻找相同的用户
287 0
|
消息中间件 分布式计算 NoSQL
大数据-104 Spark Streaming Kafka Offset Scala实现Redis管理Offset并更新
大数据-104 Spark Streaming Kafka Offset Scala实现Redis管理Offset并更新
283 0
|
消息中间件 存储 分布式计算
大数据-103 Spark Streaming Kafka Offset管理详解 Scala自定义Offset
大数据-103 Spark Streaming Kafka Offset管理详解 Scala自定义Offset
332 0
|
SQL 机器学习/深度学习 分布式计算
Spark快速上手:揭秘大数据处理的高效秘密,让你轻松应对海量数据
【10月更文挑战第25天】本文全面介绍了大数据处理框架 Spark,涵盖其基本概念、安装配置、编程模型及实际应用。Spark 是一个高效的分布式计算平台,支持批处理、实时流处理、SQL 查询和机器学习等任务。通过详细的技术综述和示例代码,帮助读者快速掌握 Spark 的核心技能。
595 6