SPARK中的wholeStageCodegen全代码生成--GenerateUnsafeProjection.createCode说明

简介: SPARK中的wholeStageCodegen全代码生成--GenerateUnsafeProjection.createCode说明

背景


对于在在RangeExec中出现的GenerateUnsafeProjection.createCode的方法进行说明


分析


对应的代码为:

  def createCode(
      ctx: CodegenContext,
      expressions: Seq[Expression],
      useSubexprElimination: Boolean = false): ExprCode = {
    val exprEvals = ctx.generateExpressions(expressions, useSubexprElimination)
    val exprSchemas = expressions.map(e => Schema(e.dataType, e.nullable))
    val numVarLenFields = exprSchemas.count {
      case Schema(dt, _) => !UnsafeRow.isFixedLength(dt)
      // TODO: consider large decimal and interval type
    }
    val rowWriterClass = classOf[UnsafeRowWriter].getName
    val rowWriter = ctx.addMutableState(rowWriterClass, "rowWriter",
      v => s"$v = new $rowWriterClass(${expressions.length}, ${numVarLenFields * 32});")
    // Evaluate all the subexpression.
    val evalSubexpr = ctx.subexprFunctionsCode
    val writeExpressions = writeExpressionsToBuffer(
      ctx, ctx.INPUT_ROW, exprEvals, exprSchemas, rowWriter, isTopLevel = true)
//   println(s"writeExpressions: $writeExpressions")
    val code =
      code"""
         |$rowWriter.reset();
         |$evalSubexpr
         |$writeExpressions
       """.stripMargin
    // `rowWriter` is declared as a class field, so we can access it directly in methods.
//    println(s"code: $code")
    ExprCode(code, FalseLiteral, JavaCode.expression(s"$rowWriter.getRow()", classOf[UnsafeRow]))
  }

其中 expressions的值为Seq(BoundReference(0, long, false))

useSubexpreElimination为false


val exprEvals = ctx.generateExpressions(expressions, useSubexprElimination)

这里只是代码生成,exprEvals的值就是range_value_0

因为useSubexprElimination 是false,所以不会进行公共代码的消除

val exprSchemas = expressions.map(e => Schema(e.dataType, e.nullable))

得到对应的表达式的schema

val numVarLenFields =

计算出非固定长度字段的个数,用于初始化UnsafeRowWriter

val rowWriter =

定义并初始化rowWriter,该rowWriter是全局范围的,生成的代码如下:

 private org.apache.spark.sql.catalyst.expressions.codegen.UnsafeRowWriter[] range_mutableStateArray_0 = new org.apache.spark.sql.catalyst.expressions.codegen.UnsafeRowWriter[3];
 public void init(int index, scala.collection.Iterator[] inputs) {
 ...
 range_mutableStateArray_0[0] = new org.apache.spark.sql.catalyst.expressions.codegen.UnsafeRowWriter(1, 0);
 }

val evalSubexpr = ctx.subexprFunctionsCode

这里为空字符串

val writeExpressions = writeExpressionsToBuffer

private def writeExpressionsToBuffer(
    ctx: CodegenContext,
    row: String,
    inputs: Seq[ExprCode],
    schemas: Seq[Schema],
    rowWriter: String,
    isTopLevel: Boolean = false): String = {
  val resetWriter = if (isTopLevel) {
    // For top level row writer, it always writes to the beginning of the global buffer holder,
    // which means its fixed-size region always in the same position, so we don't need to call
    // `reset` to set up its fixed-size region every time.
    if (inputs.map(_.isNull).forall(_ == FalseLiteral)) {
      // If all fields are not nullable, which means the null bits never changes, then we don't
      // need to clear it out every time.
      ""
    } else {
      s"$rowWriter.zeroOutNullBytes();"
    }
  } else {
    s"$rowWriter.resetRowWriter();"
  }
  val writeFields = inputs.zip(schemas).zipWithIndex.map {
    case ((input, Schema(dataType, nullable)), index) =>
      val dt = UserDefinedType.sqlType(dataType)
      val setNull = dt match {
        case t: DecimalType if t.precision > Decimal.MAX_LONG_DIGITS =>
          // Can't call setNullAt() for DecimalType with precision larger than 18.
          s"$rowWriter.write($index, (Decimal) null, ${t.precision}, ${t.scale});"
        case CalendarIntervalType => s"$rowWriter.write($index, (CalendarInterval) null);"
        case _ => s"$rowWriter.setNullAt($index);"
      }
      val writeField = writeElement(ctx, input.value, index.toString, dt, rowWriter)
      if (!nullable) {
        s"""
           |${input.code}
           |${writeField.trim}
         """.stripMargin
      } else {
        s"""
           |${input.code}
           |if (${input.isNull}) {
           |  ${setNull.trim}
           |} else {
           |  ${writeField.trim}
           |}
         """.stripMargin
      }
  }
  val writeFieldsCode = if (isTopLevel && (row == null || ctx.currentVars != null)) {
    // TODO: support whole stage codegen
    writeFields.mkString("\n")
  } else {
    assert(row != null, "the input row name cannot be null when generating code to write it.")
    ctx.splitExpressions(
      expressions = writeFields,
      funcName = "writeFields",
      arguments = Seq("InternalRow" -> row))
  }
  s"""
     |$resetWriter
     |$writeFieldsCode
   """.stripMargin
}

val resetWriter =

因为inputs为null为false,所以resetWriter的值为空字符串


val writeFields =

因为inputs的类型是LONG类型,所以对应到val writeField = writeElement(ctx, input.value, index.toString, dt, rowWriter)代码为:

case _ => s"$writer.write($index, $input);",所以生成的代码为:

 range_mutableStateArray_0[0].write(0, range_value_0)
  • val writeFieldsCode =以及后面的代码组装
    对每一个变量的赋值按照换行符进行分隔。
  • val code =
    组装成ExprCode的code部分,生成的代码如下:
range_mutableStateArray_0[0].reset();
range_mutableStateArray_0[0].write(0, range_value_0);

最后ExprCode的完整部分如下:

 ExprCode(range_mutableStateArray_0[0].reset();
range_mutableStateArray_0[0].write(0, range_value_0);,false,(range_mutableStateArray_0[0].getRow()))


相关文章
|
SQL 分布式计算 Spark
SPARK中的wholeStageCodegen全代码生成--以aggregate代码生成为例说起(10)
SPARK中的wholeStageCodegen全代码生成--以aggregate代码生成为例说起(10)
180 0
|
分布式计算 Java Spark
SPARK中的wholeStageCodegen全代码生成--以aggregate代码生成为例说起(3)
SPARK中的wholeStageCodegen全代码生成--以aggregate代码生成为例说起(3)
244 0
|
SQL 分布式计算 Spark
Spark中的WholeStageCodegenExec(全代码生成)
Spark中的WholeStageCodegenExec(全代码生成)
538 0
Spark中的WholeStageCodegenExec(全代码生成)
|
12天前
|
分布式计算 大数据 Apache
ClickHouse与大数据生态集成:Spark & Flink 实战
【10月更文挑战第26天】在当今这个数据爆炸的时代,能够高效地处理和分析海量数据成为了企业和组织提升竞争力的关键。作为一款高性能的列式数据库系统,ClickHouse 在大数据分析领域展现出了卓越的能力。然而,为了充分利用ClickHouse的优势,将其与现有的大数据处理框架(如Apache Spark和Apache Flink)进行集成变得尤为重要。本文将从我个人的角度出发,探讨如何通过这些技术的结合,实现对大规模数据的实时处理和分析。
42 2
ClickHouse与大数据生态集成:Spark & Flink 实战
|
1月前
|
存储 分布式计算 算法
大数据-106 Spark Graph X 计算学习 案例:1图的基本计算、2连通图算法、3寻找相同的用户
大数据-106 Spark Graph X 计算学习 案例:1图的基本计算、2连通图算法、3寻找相同的用户
58 0
|
1月前
|
消息中间件 分布式计算 NoSQL
大数据-104 Spark Streaming Kafka Offset Scala实现Redis管理Offset并更新
大数据-104 Spark Streaming Kafka Offset Scala实现Redis管理Offset并更新
38 0
|
1月前
|
消息中间件 存储 分布式计算
大数据-103 Spark Streaming Kafka Offset管理详解 Scala自定义Offset
大数据-103 Spark Streaming Kafka Offset管理详解 Scala自定义Offset
78 0
|
13天前
|
SQL 机器学习/深度学习 分布式计算
Spark快速上手:揭秘大数据处理的高效秘密,让你轻松应对海量数据
【10月更文挑战第25天】本文全面介绍了大数据处理框架 Spark,涵盖其基本概念、安装配置、编程模型及实际应用。Spark 是一个高效的分布式计算平台,支持批处理、实时流处理、SQL 查询和机器学习等任务。通过详细的技术综述和示例代码,帮助读者快速掌握 Spark 的核心技能。
40 6
|
11天前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第27天】在大数据时代,数据湖技术凭借其灵活性和成本效益成为企业存储和分析大规模异构数据的首选。Hadoop和Spark作为数据湖技术的核心组件,通过HDFS存储数据和Spark进行高效计算,实现了数据处理的优化。本文探讨了Hadoop与Spark的最佳实践,包括数据存储、处理、安全和可视化等方面,展示了它们在实际应用中的协同效应。
49 2
|
12天前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第26天】本文详细探讨了Hadoop与Spark在大数据处理中的协同作用,通过具体案例展示了两者的最佳实践。Hadoop的HDFS和MapReduce负责数据存储和预处理,确保高可靠性和容错性;Spark则凭借其高性能和丰富的API,进行深度分析和机器学习,实现高效的批处理和实时处理。
48 1