hudi 0.10.0适配hdp 3.1.5编译

简介: hudi由于其依赖于hdfs作为后端存储,所以为了适配hdp 3.1.5版本,需要进行适配性编译,本文介绍hudi 0.10.0适配hdp 3.1.5编译。

新增hdp仓库

在项目根目录下的pom文件中新增:

    <repository>
      <id>hdp</id>
      <url>https://repo.hortonworks.com/content/repositories/releases/</url>
    </repository>

其他pom文件修改

hive-jdbc依赖的hadoop-yarn-server-resourcemanager版本为SNAPSHOT,在仓库中都找不到,将其修改为使用项目指定的版本。

具体有如下子项目:

  • hudi-hadoop-mr中的hive-jdbc依赖
  • hudi-utilities-bundle中的hive-jdbc依赖
  • hudi-integ-test-bundle中的hive-jdbc依赖

排除掉

      <exclusions>
        <exclusion>
          <groupId>org.apache.hadoop</groupId>
          <artifactId>hadoop-yarn-server-resourcemanager</artifactId>
        </exclusion>
      </exclusions>

新增

    <dependency>
      <groupId>org.apache.hadoop</groupId>
      <artifactId>hadoop-yarn-server-resourcemanager</artifactId>
      <version>${hadoop.version}</version>
    </dependency>

编译时部分jar包在仓库中找不到或下载慢,可以从原始rpm包中将其拷贝到编译的机器,并安装到本地,例如下述jar包,例如hive-jdbc-3.1.0.3.1.4.0-315-standalone.jar等。

编译命令

mvn clean install -DskipTests -Dhadoop.version=3.1.1.3.1.4.0-315 -Dhive.version=3.1.0.3.1.4.0-315 -Dscala.version=2.12.10 -Dscala.binary.version=2.12 -Dspark.version=3.0.1

结果


更多hudi知识请参考:

https://lrting.top/category/backend/bigdata/hudi/

相关文章
|
分布式计算 Java 分布式数据库
Kylin与CDH兼容性剖析
1. 概述   Apache Kylin™是一个开源的分布式分析引擎,提供Hadoop之上的SQL查询接口及多维分析(OLAP)能力以支持超大规模数据,最初由eBay Inc. 开发并贡献至开源社区。
2370 0
|
分布式计算 安全 Java
HDP2.6.5更换spark版本为2.4.5 与carbondata2.0.1集成
继承Thread类 实现Runnnable接口 实现Callable接口
262 0
|
9月前
|
分布式计算 Hadoop 容器
Hadoop组件版本不兼容
【5月更文挑战第7天】Hadoop组件版本不兼容
114 3
|
Oracle MySQL 关系型数据库
sqoop 兼容性问题
本文简介sqoop 兼容性问题。
3767 0
|
9月前
|
Java Apache 数据库
下一代实时数据库:Apache Doris 【二】编译与安装
下一代实时数据库:Apache Doris 【二】编译与安装
556 0
|
9月前
|
Java atlas 网络安全
Flink CDC编译问题之编译atlas报错如何解决
Flink CDC编译指的是将Flink CDC源代码转换成可执行程序的过程,可能会涉及到依赖管理和环境配置等问题;本合集将介绍Flink CDC编译的步骤、常见错误及其解决办法,以确保顺利完成编译过程。
|
SQL 存储 分布式计算
Hive简介及源码编译
Hive是一个基于Hadoop的数据仓库,可以将结构化数据映射成一张表,并提供类SQL的功能,最初由Facebook提供,使用HQL作为查询接口、HDFS作为存储底层、MapReduce作为执行层,设计目的是让SQL技能良好,但Java技能较弱的分析师可以查询海量数据,2008年facebook把Hive项目贡献给Apache。Hive提供了比较完整的SQL功能(本质是将SQL转换为MapReduce),自身最大的缺点就是执行速度慢。Hive有自身的元数据结构描述,可以使用MySql\ProstgreSql\oracle 等关系型数据库来进行存储,但请注意Hive中的所有数据都存储在HDFS中
466 0
Hive简介及源码编译
|
Java 流计算
flink 自制parcels 包集成CDH
flink 自制parcels 包集成CDH
flink 自制parcels 包集成CDH
|
SQL Java Apache
cdh5.16 重新编译flink1.10
cdh5.16 重新编译flink1.10
112 0
|
存储 分布式计算 Hadoop
hudi的安装部署以及基本使用方法
hudi的安装部署以及基本使用方法

热门文章

最新文章