我使用spark来从Hive表中读取数据,而我真正想要的是强类型 Dataset
这就是我在做的,这是有效的:
val myDF = spark.sql("select col1, col2 from hive_db.hive_table")
// Make sure that the field names in the case class exactly match the hive column names
case class MyCaseClass (col1: String, col2: String)
val myDS = myDF.as[myCaseClass]
我遇到的问题是我的Hive表非常长而且很多列都是结构体,因此定义case类并不容易。
有没有办法创建一个Dataset无需创建案例类?我想知道,因为Hive已经定义了所有列名以及数据类型,有没有办法Dataset直接创建?
TL; DR简短的回答是没有这样的选择。Dataset是根据存储的类型定义的Encoder,所以你不能只是跳过类型。
在实践中,您可以探索不同的选项,包括Scala反射,宏和代码生成,以从表metatdata派生所需的类型。其中的一些已经被成功地用于(您可以检查宏的用法ScalaRelational或代码生成ScalaLikeJDBC)来解决类似的问题。如今,没有内置工具在Apache Spark中扮演类似的角色。
但是,如果模式非常复杂,出于多种原因可能是死路一条,包括但不限于:
“类型”转换的运行时开销。
平台限制,例如限制JVM方法的参数数量(请参阅例如SI-7324)或JVM代码大小限制。
可用性,尤其是在使用Scala反射时。虽然代码生成可以提供相当不错的用户体验,但剩下的选项可能并不比使用简单命名的包Any(又名o.a.s.sql.Row)更好。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。