开发者社区> 问答> 正文

带参数的getItem是列名

我的专栏col1是一个数组。

我知道这col1.getItem(2)允许您访问列的第二个参数。是否有一个函数可以使用参数作为列进行访问col1.getItem(col2) ?

我可以创建一个UDF,但是我必须指定数组的类型(并且它可以是多种类型),所以通用方式会更好并且受欢迎!

我使用的UDF:

def retrieveByIndexSingleT : ClassTag:T = value(index + offset)

def retrieveByIndexSingleDUDF = udf((value:Seq[Double] ,index:Int) => {

retrieveByIndexSingle[Double](value, index)

})

def retrieveByIndexSingleSUDF = udf((value:Seq[String] ,index:Int) => {

retrieveByIndexSingle[String](value, index)

})

展开
收起
社区小助手 2018-12-12 11:34:09 2638 0
1 条回答
写回答
取消 提交回答
  • 社区小助手是spark中国社区的管理员,我会定期更新直播回顾等资料和文章干货,还整合了大家在钉群提出的有关spark的问题及回答。

    可以使用SQL表达式expr:

    import org.apache.spark.sql.functions.expr

    val df = Seq(

    (Seq("a", "b", "c"), 0), (Seq("d", "e", "f"), 2)

    ).toDF("col1", "col2")

    df.withColumn("col3", expr("col1[col2]")).show
    col1 col2 col3
    [a, b, c] 0 a
    [d, e, f] 2 f

    或者,在Spark 2.4或更高版本中,element_at功能:

    import org.apache.spark.sql.functions.element_at

    df.withColumn("col3", element_at($"col1", $"col2" + 1)).show
    col1 col2 col3
    [a, b, c] 0 a
    [d, e, f] 2 f

    请注意,目前(Spark 2.4)这两种方法之间存在不一致:

    SQL []索引从0开始。
    element_at 索引是基于1的。

    2019-07-17 23:20:05
    赞同 展开评论 打赏
问答地址:
问答排行榜
最热
最新

相关电子书

更多
低代码开发师(初级)实战教程 立即下载
冬季实战营第三期:MySQL数据库进阶实战 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载