val spark = SparkSession.builder.appName("Simple Application")
.config("spark.sql.warehouse.dir",
"hdfs://quickstart.cloudera:8020/user/hive/warehouse")
.enableHiveSupport()
.config("hive.metastore.uris","thrift://127.0.0.1:9083")
.master("local") //local
.getOrCreate()
在IntelliJ中运行Spark SQL代码时: Exception in thread "main" java.lang.IllegalArgumentException: Unable to instantiate SparkSession with Hive support because Hive classes are not found。
这是因为您可能错过了导入(替换为您正在使用的spark版本):
<groupId>org.apache.spark</groupId>
<artifactId>spark-hive_2.11</artifactId>
<version>2.4.0</version>
如果使用sbt,则使用以下内容:
libraryDependencies += "org.apache.spark" %% "spark-hive" % "2.4.0" % "provided"
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。