hadoop sdk 优化小结(裁剪、集成kerberos组件、定制等)

简介: hadoop sdk优化、裁剪、集成kerberos组件、定制化等

01 引言

博主最近在实际的业务中,使用到了DolphinScheduler(一款大数据调度框架)里面的一个工作流的MapReduce任务节点。

主要做的事情就是,在该节点提交一个mr作业到华为云MRS大数据平台里面的yarn,任务节点代码如下:
image.png

从代码得知,它是使用CLI的形式提交作业的,因此需要解决如下几个问题:

  • q1:需要有一个hadoop的安装包;
  • q2: hadoop安装包体积过大,需要裁剪,否则挂载到容器,镜像会很大。
  • q3: hadoop安装包的依赖库必须是第三方的大数据平台(MRS)提供的;
  • q4: 访问MRS需要走kerberos认证,需要集成kerberos组件;
  • q5:集成hadoop安装包到项目。

ok,本文围绕以上几个问题逐个解决。

02 选择合适的hadoop安装包

因为项目需求是使用3.3.1版本的hadoop sdk,因此我去搜了一下仓库:https://repo.huaweicloud.com/apache/hadoop/common/hadoop-3.3.1/
image.png

发现该sdk体积很大,因此选择了版本2.7.7(体积小了一半):
https://repo.huaweicloud.com/apache/hadoop/common/hadoop-2.7.7/
image.png

好了,接下来需要进行裁剪了。

03 裁剪hadoop安装包

安装下载并解压后,可以得知,它的依赖库都在"{解压目录}/share/hadoop/common"下,根据组件类型,按文件夹分类了不同的jar:
image.png

其实除了“common”,其他文件夹都可以删除,为了方便下一步添加MRS平台的依赖库,我把这里的所有文件夹都删除了,只留下common。

这么一来,这个安装包的体积才几M了。

04 hadoop安装包添加依赖库

上一步骤,只留下了common文件夹了,我们需要替换里面的jar,那这些依赖库从哪里来呢?

我们可以看看华为云提供的官方demo:
https://github.com/huaweicloud/huaweicloud-mrs-example/tree/mrs-3.1.2

IDEA git clone下来,使用mave导入,然后在菜单栏,展开“External Libraries”,可以看到自动依赖hadoop相关的jar:
image.png

注意了,这里依赖的jar就是hadoop 安装包里面如果使用客户端命令,必须用到的内容因此我们需要把这里依赖到的所有jar包都从本地的maven仓库copy出来

最终,我添加了jar包到了刚刚裁剪过的"{解压目录}/share/hadoop/common"目录下:
image.png

验证:

cd ./bin
./hadoop version

image.png

可以看到,我们添加了库到hadoop的安装包,现在可以看做是一个hadoop客户端了。

压缩后,它的体积仅有87.8M了,比之前的体积少了近10倍。
image.png

05 hadoop安装包集成kerberos组件

现在已经有了hadoop的客户端了,如果要正常提交mr作业到MRS平台,还有两个步骤需要走:

  • Step1:修改"{解压目录}/etc/hadoop"目录下的几个文件(一般为:core-site.xmlhdfs-site.xmlyarn-site.xmlmapred-site.xml),通常这几个文件都是大数据平台的相关负责人提供,然后我们直接替换就好了;
  • Step2:使用kerberoskinit命令获取身份票据,然后就能正常使用hadoop的相关命令了。

那么,kerberos相关的安装包在哪里下载呢?我们可以进入我们“要使用hadoop安装包的业务服务”所在的物理机,然后使用命令下载(注意:这里的业务服务是部署到k8s集群里面的,默认已经进入了pod容器):

## Ubuntu/Debian系统:  
apt-get install krb5-user krb5-config  

## CentOS/RHEL系统
yum install krb5-workstation krb5-libs  

## 容器里面的系统是(Alpine Linux v3.11)
apk add krb5

安装成功:
image.png

打包这些命令:

## 创建文件夹
mkdir krberos_client

## 复制keberos命令
cp /usr/bin/kinit \
   /usr/bin/klist \
   /usr/bin/kdestroy \
   /usr/bin/kpasswd \
   /usr/bin/kadmin \
   /usr/bin/kvno \
   /usr/bin/ktutil \
   krberos_client/
## 打包keberos命令
tar czvf krberos_client.tar.gz krberos_client/

然后导出(本文是从容器里导出“kubectl cp <namespace>/<pod_name>:<container_path> <local_path>”)

最后,解压这些文件到hadoop安装包的bin目录(没强制要求):
image.png

06 集成安装包到项目

经过前面的描述,已经把hadoop的安装包裁剪了,且集成了kerberos的组件,此时我们需要把这个安装包一起打包到我们的项目,细节不说了,我直接贴出我的Dockerfile

# 使用OpenJDK 8作为构建环境
FROM openjdk:8-jdk-alpine

# 设置工作目录
WORKDIR /app

# 声明JAVA_HOME、HADOOP_HOME等
ENV JAVA_HOME=/usr/lib/jvm/java-1.8-openjdk
ENV HADOOP_HOME=/data/hadoop
ENV PATH $JAVA_HOME/bin:$HADOOP_HOME/bin:$PATH


RUN mkdir -p /data/hadoop
COPY hadoop-mrs /data/hadoop
RUN cp /data/hadoop/bin/k* /usr/local/bin/ && \      ## 复制kerberos相关的命令到bin目录,直接就能使用
    cp /data/hadoop/etc/hadoop/krb5.conf /etc/   ## 复制krb5.conf到etc目录,keberos命令从这个路径读取kdc、realm等信息

## 其它....

以上有几个细节需要注意:

  1. 安装包bin目录下的kerberos命令必须复制到/user/local/bin目录,这样才可以直接使用kerberos相关的客户端命令
  2. krb5.conf文件必须放到etc目录,因为kerberos命令默认就是从该路径的krb5.conf文件读取kdc、realm等信息的
  3. ENV必须声明JAVA_HOME、HADOOP_HOME、PATH这些信息,这样才能直接使用hadoop命令

最后,进入容器,看看执行的效果,可以看到命令一切正常:
image.png

上述仅仅是验证命令的可行性,如果要真正提交mr作业到mrs,你可能需要这样执行命令:

# 获取用户kerberos 票据
kinit -kt [user.keytab文件路径] [用户principal]
# 查询是否获取成功
klist
# 使用hadoop 命令
hdfs dfs -list

如下(目录可能不同,之前验证通过的,做示例展示):
image.png

备注:Hadoop客户端首先会检查 KRB5CCNAME 变量是否存在,并使用该变量指定的路径来读取Kerberos票据,如果该变量不存在,则会使用默认的票据缓存路径来读取票据(即图片klist命令结果中的/tmp//krb5cc_0)。

06 文末

附:

本文主要就是讲解了hadoop sdk的裁剪、集成kerberos组件等操作,纯属经验之谈,希望能帮助到大家,谢谢大家的阅读,本文完!

相关实践学习
简单用户画像分析
本场景主要介绍基于海量日志数据进行简单用户画像分析为背景,如何通过使用DataWorks完成数据采集 、加工数据、配置数据质量监控和数据可视化展现等任务。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps&nbsp;
目录
相关文章
|
2月前
|
Java API 开发工具
支付与银行业线上客户协议应用中的DocuSign集成方式选择——SDK和API
跨境支付公司和Docusign进行集成时,碰到问题时的解决方案。分别用SDK和API集成后的各自使用体验。
46 2
支付与银行业线上客户协议应用中的DocuSign集成方式选择——SDK和API
|
3月前
|
存储 测试技术 持续交付
自动化测试与持续集成/持续交付(CI/CD):优化软件开发流程的利器
自动化测试与持续集成/持续交付(CI/CD)是现代软件开发中至关重要的环节,通过将自动化测试与持续集成/持续交付相结合,可以实现开发流程的高效优化,提高软件质量和交付速度。本文将探讨自动化测试与CI/CD的概念、原理及其在软件开发中的重要性,以及如何实施这些技术以提升团队的协作效率和软件交付质量。
59 1
|
4月前
|
Java
SpringBoot集成RestTemplate组件
SpringBoot集成RestTemplate组件
45 0
|
4月前
|
存储 分布式计算 负载均衡
【大数据技术Hadoop+Spark】MapReduce概要、思想、编程模型组件、工作原理详解(超详细)
【大数据技术Hadoop+Spark】MapReduce概要、思想、编程模型组件、工作原理详解(超详细)
61 0
|
10天前
|
机器学习/深度学习 存储 算法
PYTHON集成机器学习:用ADABOOST、决策树、逻辑回归集成模型分类和回归和网格搜索超参数优化
PYTHON集成机器学习:用ADABOOST、决策树、逻辑回归集成模型分类和回归和网格搜索超参数优化
31 7
|
25天前
|
机器学习/深度学习 人工智能 自然语言处理
构建未来:移动应用中的人工智能集成与用户体验优化
【4月更文挑战第3天】 随着人工智能技术的不断进步,移动应用领域正在经历一场革命。本文将深入探讨移动应用中人工智能集成的最新趋势,以及如何通过这些技术提升用户体验。我们将分析自然语言处理、机器学习和计算机视觉等AI技术在移动应用中的具体应用场景,并讨论它们对用户互动、个性化服务和智能推荐系统的影响。此外,文章还将提出一系列策略,帮助开发者在保持用户隐私和数据安全的前提下,有效地集成人工智能功能。
|
1月前
|
敏捷开发 分布式计算 数据管理
探索自动化测试在持续集成环境中的优化策略
【2月更文挑战第18天】 在高速迭代的软件开发过程中,自动化测试已成为确保产品质量和加快交付速度的关键。本文深入探讨了自动化测试在持续集成(CI)环境中面临的挑战,并提出了一系列优化策略。通过对测试流程、工具选择和测试数据管理等方面的细致分析,旨在为软件测试人员提供实用的改进方法,以提高自动化测试的效率和准确性。
|
2月前
|
负载均衡 算法 Java
SDK并发调用优化方案
SDK并发调用优化方案
|
2月前
|
消息中间件 监控 安全
【天衍系列 05】Flink集成KafkaSink组件:实现流式数据的可靠传输 & 高效协同
【天衍系列 05】Flink集成KafkaSink组件:实现流式数据的可靠传输 & 高效协同
|
2月前
|
Web App开发 前端开发 JavaScript
如何快速与呼叫中心系统CTI/API/SDK接口集成
由于呼叫中心系统涉及通信、CTI、终端设备、中继线路等技术与概念,从事信息管理系统、ERP、CRM、工单系统等的研发人员一般不是非常熟悉这部分技术,当需要提供具备呼叫中心能力的解决方案时,往往要用较多的时间来研究这些相对复杂的技术,对接过程比较长,开发调试有一定的阻力,基于此,我们提出一种更加简便高效的集成方法,可以零代码集成呼叫中心平台,实现项目快速上线。
如何快速与呼叫中心系统CTI/API/SDK接口集成