Flink1.14.2连接Hive,初始化Hivecatalog失败

使用Flink连接Hive的时候一直报错,java.lang.NoSuchMethodError: com.google.common.base.Preconditions.checkArgument(ZLjava/lang/String;Ljava/lang/Object;)V 尝试更换版本,更换com.google.guava版本,使用的代码是官网案例 org.apache.flink flink-connector-hive_2.12 1.14.2 org.apache.flink flink-table-api-java-bridge_2.12 1.14.2 org.apache.flink flink-table-planner_2.12 1.14.2 org.apache.hive hive-exec 3.1.2 org.apache.hadoop hadoop-mapreduce-client-core 3.1.3 org.apache.hadoop hadoop-common 3.1.3 org.apache.flink flink-sql-connector-hive-3.1.2_2.12 1.14.2 org.apache.hadoop hadoop-mapreduce-client-common 3.1.3 org.apache.hadoop hadoop-mapreduce-client-jobclient 3.1.3

展开
收起
游客eoxmdf2tscxou 2022-01-14 14:55:58 979 分享 版权
1 条回答
写回答
取消 提交回答
  • 十分耕耘,一定会有一分收获!

    楼主你好,这个报错是由于版本冲突导致的。Flink连接Hive时需要使用与Flink和Hive版本兼容的guava库。

    你可以尝试以下解决方法:

    1. 确保使用了与Flink和Hive版本兼容的guava库。可以查看Flink和Hive的官方文档,找到各自所依赖的guava版本,并将其添加到你的项目依赖中。
    2. 如果更换guava版本后仍然出现问题,可以尝试排除其他可能引发冲突的库。可以使用Maven或Gradle等工具进行依赖排除,以解决潜在的冲突问题。
    3. 另外,确保你的Flink和Hive版本是兼容的。有些版本的Flink可能不支持特定版本的Hive,因此请确认你正在使用兼容的版本。
    2023-07-11 08:41:33
    赞同 展开评论

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

收录在圈子:
实时计算 Flink 版(Alibaba Cloud Realtime Compute for Apache Flink,Powered by Ververica)是阿里云基于 Apache Flink 构建的企业级、高性能实时大数据处理系统,由 Apache Flink 创始团队官方出品,拥有全球统一商业化品牌,完全兼容开源 Flink API,提供丰富的企业级增值功能。
还有其他疑问?
咨询AI助理