ARM64 环境利用 docker 编译 hadoop-2.7.7

简介: ARM64 环境利用 docker 编译 hadoop-2.7.7

浅言碎语

  • x86_64 架构,直接从官网下载二进制文件就可以了

  • arm64 架构官方没有二进制文件,只能自己编译

    • 当然,也可以在 linux 服务上编译,利用 docker 其实是为了不'玷污'本地环境

      • 因为发行版是 麒麟V10 ,编译异常困难,还是要借助 docker 运行一个 centos

        • 为什么是 centos ?

          • 因为 hadoop-2.7.7 编译的时候要求 protoc 的版本是 2.5.0
          • 麒麟 V10 默认下载的版本已经是 3.x 了,而且没有 2.x 的历史版本

            • 尝试过去编译 protoc, 反正没成功
            • docker hub 上拉取的 centos 7 的镜像,yum 安装的就是 2.5.0 的 protoc
            • docker 镜像制作完成后,一定要先去容器里面执行 protoc --version,确认版本是不是2.5.0的,否则编译过程中会报错

              • 报错内容protoc version is 'libprotoc 3.9.0', expected version is '2.5.0'
        • 为什么用 oracle 的 jdk?

          • 因为 openjdk 在编译的时候,会出现 cannot find symbol 的报错,编译就进行不下去了

    • 编译过程还是比较依赖网络的,需要从 apache 的 maven 仓库里面获取 java 依赖

      • 当然,也可以提前下载好 maven 仓库,但是挺累的

准备环境

查看发行版
cat /etc/os-release
NAME="Kylin Linux Advanced Server"
VERSION="V10 (Tercel)"
ID="kylin"
VERSION_ID="V10"
PRETTY_NAME="Kylin Linux Advanced Server V10 (Tercel)"
ANSI_COLOR="0;31"
查看架构
uname -i
aarch64
目录结构
.
├── apache-maven-3.6.2.tar.gz
├── Dockerfile
├── hadoop-2.7.7-src.tar.gz
└── jdk1.8.0_321.tar.gz

编写 dockerfile

# 定义一个 centos 7 的初始镜像,方便自定义编译环境
FROM centos:7
# 定义变量
## 定义工作目录
ARG work_dir=/usr/local

# 定义容器的环境变量
ENV JAVA_HOME=${work_dir}/jdk1.8.0_321
## 我这里用的是 maven 3.6.2 版本,如果下载的版本和我的不一样,这里要修改
ENV MAVEN_HOME=${work_dir}/apache-maven-3.6.2
ENV PATH=${PATH}:${JAVA_HOME}/bin:${MAVEN_HOME}/bin

# 定义进入容器的默认目录
WORKDIR ${work_dir}
# 配置 yum 源为 阿里源
## 安装编译 hadoop 所需的工具,清理安装包和缓存
RUN curl -O /etc/yum.repos.d/ http://mirrors.aliyun.com/repo/Centos-7.repo && \
    yum install -y gcc gcc-c++ make cmake protobuf-* automake libtool zlib-devel openssl-devel && \
    yum clean all
# 复制 tar 包到镜像内
ADD ./jdk1.8.0_321.tar.gz ./
ADD ./apache-maven-3.6.2.tar.gz ./
ADD ./hadoop-2.7.7-src.tar.gz ./
# 整个脚本,让他睡十年
## docker 容器想要在后台常驻,需要有一个前台常驻进程
RUN echo '/usr/bin/sleep 315360000' > start.sh && \
    chmod +x start.sh
CMD ["/usr/bin/bash","start.sh"]
创建一个镜像
docker build -t hadoop:2.7.7 .

开始编译

先让容器在后台跑着
docker run -d --network host hadoop:2.7.7
进入容器
docker exec -it <容器id> bash
开始编译
cd hadoop-2.7.7-src
mvn package -e -X -Pdist,native -DskipTests -Dtar
整个编译时间长达 1小时22分钟(反正肯定一小时起步,至于时长,还是和机器性能以及网络有关)
[INFO] ------------------------------------------------------------------------
[INFO] Reactor Summary for Apache Hadoop Main 2.7.7:
[INFO]
[INFO] Apache Hadoop Main ................................. SUCCESS [14:57 min]
[INFO] Apache Hadoop Build Tools .......................... SUCCESS [11:03 min]
[INFO] Apache Hadoop Project POM .......................... SUCCESS [03:02 min]
[INFO] Apache Hadoop Annotations .......................... SUCCESS [ 54.759 s]
[INFO] Apache Hadoop Assemblies ........................... SUCCESS [  0.407 s]
[INFO] Apache Hadoop Project Dist POM ..................... SUCCESS [02:16 min]
[INFO] Apache Hadoop Maven Plugins ........................ SUCCESS [03:00 min]
[INFO] Apache Hadoop MiniKDC .............................. SUCCESS [07:35 min]
[INFO] Apache Hadoop Auth ................................. SUCCESS [03:06 min]
[INFO] Apache Hadoop Auth Examples ........................ SUCCESS [01:01 min]
[INFO] Apache Hadoop Common ............................... SUCCESS [08:37 min]
[INFO] Apache Hadoop NFS .................................. SUCCESS [  3.666 s]
[INFO] Apache Hadoop KMS .................................. SUCCESS [01:01 min]
[INFO] Apache Hadoop Common Project ....................... SUCCESS [  0.204 s]
[INFO] Apache Hadoop HDFS ................................. SUCCESS [02:13 min]
[INFO] Apache Hadoop HttpFS ............................... SUCCESS [ 29.157 s]
[INFO] Apache Hadoop HDFS BookKeeper Journal .............. SUCCESS [02:04 min]
[INFO] Apache Hadoop HDFS-NFS ............................. SUCCESS [  2.859 s]
[INFO] Apache Hadoop HDFS Project ......................... SUCCESS [  0.205 s]
[INFO] hadoop-yarn ........................................ SUCCESS [  0.205 s]
[INFO] hadoop-yarn-api .................................... SUCCESS [ 23.612 s]
[INFO] hadoop-yarn-common ................................. SUCCESS [03:06 min]
[INFO] hadoop-yarn-server ................................. SUCCESS [  0.207 s]
[INFO] hadoop-yarn-server-common .......................... SUCCESS [  6.124 s]
[INFO] hadoop-yarn-server-nodemanager ..................... SUCCESS [ 10.998 s]
[INFO] hadoop-yarn-server-web-proxy ....................... SUCCESS [  2.448 s]
[INFO] hadoop-yarn-server-applicationhistoryservice ....... SUCCESS [  4.626 s]
[INFO] hadoop-yarn-server-resourcemanager ................. SUCCESS [ 12.354 s]
[INFO] hadoop-yarn-server-tests ........................... SUCCESS [  3.492 s]
[INFO] hadoop-yarn-client ................................. SUCCESS [  3.898 s]
[INFO] hadoop-yarn-server-sharedcachemanager .............. SUCCESS [  2.501 s]
[INFO] hadoop-yarn-applications ........................... SUCCESS [  0.190 s]
[INFO] hadoop-yarn-applications-distributedshell .......... SUCCESS [  2.112 s]
[INFO] hadoop-yarn-applications-unmanaged-am-launcher ..... SUCCESS [  1.968 s]
[INFO] hadoop-yarn-site ................................... SUCCESS [  0.202 s]
[INFO] hadoop-yarn-registry ............................... SUCCESS [  3.535 s]
[INFO] hadoop-yarn-project ................................ SUCCESS [  3.945 s]
[INFO] hadoop-mapreduce-client ............................ SUCCESS [  0.360 s]
[INFO] hadoop-mapreduce-client-core ....................... SUCCESS [ 12.012 s]
[INFO] hadoop-mapreduce-client-common ..................... SUCCESS [  9.888 s]
[INFO] hadoop-mapreduce-client-shuffle .................... SUCCESS [  2.641 s]
[INFO] hadoop-mapreduce-client-app ........................ SUCCESS [  6.284 s]
[INFO] hadoop-mapreduce-client-hs ......................... SUCCESS [  3.903 s]
[INFO] hadoop-mapreduce-client-jobclient .................. SUCCESS [ 17.598 s]
[INFO] hadoop-mapreduce-client-hs-plugins ................. SUCCESS [  1.778 s]
[INFO] Apache Hadoop MapReduce Examples ................... SUCCESS [  3.951 s]
[INFO] hadoop-mapreduce ................................... SUCCESS [  2.957 s]
[INFO] Apache Hadoop MapReduce Streaming .................. SUCCESS [ 14.252 s]
[INFO] Apache Hadoop Distributed Copy ..................... SUCCESS [01:42 min]
[INFO] Apache Hadoop Archives ............................. SUCCESS [  1.917 s]
[INFO] Apache Hadoop Rumen ................................ SUCCESS [  3.753 s]
[INFO] Apache Hadoop Gridmix .............................. SUCCESS [  3.136 s]
[INFO] Apache Hadoop Data Join ............................ SUCCESS [  2.143 s]
[INFO] Apache Hadoop Ant Tasks ............................ SUCCESS [  1.645 s]
[INFO] Apache Hadoop Extras ............................... SUCCESS [  2.321 s]
[INFO] Apache Hadoop Pipes ................................ SUCCESS [  6.265 s]
[INFO] Apache Hadoop OpenStack support .................... SUCCESS [  3.007 s]
[INFO] Apache Hadoop Amazon Web Services support .......... SUCCESS [03:45 min]
[INFO] Apache Hadoop Azure support ........................ SUCCESS [ 24.236 s]
[INFO] Apache Hadoop Client ............................... SUCCESS [  7.014 s]
[INFO] Apache Hadoop Mini-Cluster ......................... SUCCESS [  0.844 s]
[INFO] Apache Hadoop Scheduler Load Simulator ............. SUCCESS [  3.275 s]
[INFO] Apache Hadoop Tools Dist ........................... SUCCESS [  7.215 s]
[INFO] Apache Hadoop Tools ................................ SUCCESS [  0.199 s]
[INFO] Apache Hadoop Distribution ......................... SUCCESS [ 29.403 s]
[INFO] ------------------------------------------------------------------------
[INFO] BUILD SUCCESS
[INFO] ------------------------------------------------------------------------
[INFO] Total time:  01:22 h
[INFO] Finished at: 2022-04-17T04:51:48Z
[INFO] ------------------------------------------------------------------------
编译完成后的 tar 包文件在 hadoop-dist/target/目录下
目录
相关文章
|
7月前
|
分布式计算 资源调度 Hadoop
Hadoop节点资源扩展环境部署
【4月更文挑战第16天】扩展Hadoop集群涉及多个步骤:准备新节点,配置静态IP,安装并配置Hadoop,将新节点添加到集群,验证测试,及优化调整。确保符合硬件需求,更新集群节点列表,执行`hdfs dfsadmin -refreshNodes`命令,检查新节点状态,并依据测试结果优化性能。注意不同环境可能需要调整具体步骤,建议参照官方文档并在测试环境中预演。
64 4
|
4月前
|
存储 网络协议 安全
【Azure 环境】ARM部署模板大于4MB的解决方案及Linked Template遇见存储账号防火墙无法访问
【Azure 环境】ARM部署模板大于4MB的解决方案及Linked Template遇见存储账号防火墙无法访问
|
2月前
|
分布式计算 Hadoop 大数据
大数据体系知识学习(一):PySpark和Hadoop环境的搭建与测试
这篇文章是关于大数据体系知识学习的,主要介绍了Apache Spark的基本概念、特点、组件,以及如何安装配置Java、PySpark和Hadoop环境。文章还提供了详细的安装步骤和测试代码,帮助读者搭建和测试大数据环境。
83 1
|
2月前
|
Ubuntu Shell API
Ubuntu 64系统编译android arm64-v8a 的openssl静态库libssl.a和libcrypto.a
Ubuntu 64系统编译android arm64-v8a 的openssl静态库libssl.a和libcrypto.a
|
2月前
|
存储 Docker 容器
ARM架构鲲鹏主机BClinux离线安装docker步骤
下载并安装适用于ARM架构的Docker CE二进制文件,解压后移动至/usr/bin目录。创建docker组,配置systemd服务脚本(docker.service、docker.socket、containerd.service),重载systemd配置,启动并启用docker服务。编辑daemon.json配置存储驱动、镜像加速地址等,最后拉取所需镜像。
73 0
|
2月前
|
NoSQL MongoDB Docker
求助,有没有大神可以找到arm64架构下mongodb的3.6.8版本的docker镜像?
在Docker Hub受限的情况下,寻求适用于ARM架构的docker镜像资源或拉取链接,以便在x86架构上获取;内网中的机器为ARM架构,因此优先请求适合ARM的Docker镜像或Dockerfile,非常感激您的帮助。
|
2月前
|
存储 SQL 消息中间件
Hadoop-26 ZooKeeper集群 3台云服务器 基础概念简介与环境的配置使用 架构组成 分布式协调框架 Leader Follower Observer
Hadoop-26 ZooKeeper集群 3台云服务器 基础概念简介与环境的配置使用 架构组成 分布式协调框架 Leader Follower Observer
54 0
|
4月前
|
存储 分布式计算 监控
Hadoop在云计算环境下的部署策略
【8月更文第28天】Hadoop是一个开源软件框架,用于分布式存储和处理大规模数据集。随着云计算技术的发展,越来越多的企业开始利用云平台的优势来部署Hadoop集群,以实现更高的可扩展性、可用性和成本效益。本文将探讨如何在公有云、私有云及混合云环境下部署和管理Hadoop集群,并提供具体的部署策略和代码示例。
172 0
|
7月前
|
存储 Linux Docker
arm安装docker与docker-copose
现在,你已经成功在ARM架构的设备上安装了Docker和Docker Compose。你可以使用它们来管理容器和容器化应用程序。请注意,ARM设备上的Docker支持可能受到限制,某些容器可能不兼容。确保你的容器映像支持ARM架构,以便在ARM设备上正确运行。
812 6
|
6月前
|
Ubuntu 编译器 C语言
蓝易云 - ubuntu上安装boost库为SOMEIP的X86和ARM下编译做准备(编译两种版本)
以上就是在Ubuntu上安装Boost库并为SOME/IP的X86和ARM架构编译做准备的全部步骤。
85 0

热门文章

最新文章