搭建大数据运行环境之二(1)

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 搭建大数据运行环境之二(1)

前言


上篇文章咱们将大数据相关的一些组件都集成安装在了一个docker中


搭建大数据运行环境之一


这篇文章咱们继续 启动下该docker中的大数据相关的组件


将大数据运行环境跑起来


上篇文章的几个注意点再重申下


  • 安装包应用编译之后的包


组件的安装包不要用源码包
因为源码包还需要编译打包
编译的话 还需要在docker中安装编译环境
比如
# 不要下载源码包 hadoop-2.10.1-src.tar.gz 而应该下载编译之后的包 hadoop-2.10.1.tar.gz
#HADOOP_URL=https://downloads.apache.org/hadoop/common/stable2/hadoop-2.10.1.tar.gz
# 北京理工大学开源软件镜像mirror.bit.edu.cn
HADOOP_URL=http://mirror.bit.edu.cn/apache/hadoop/common/stable2/hadoop-2.10.1.tar.gz



  • 本地编译dokcer镜像然后上传到阿里镜像库然后其他地方使用


# 登陆阿里镜像库
docker login --username=孟凡霄 --password mfx@123456 registry.cn-hangzhou.aliyuncs.com
# 生成镜像
# ${dir}/hadoop 该目录指向Dockerfile文件
docker build --network host -t hadoop:v1.0 ${dir}/hadoop
# 镜像文件重命名
docker tag hadoop:v1.0 registry.cn-shanghai.aliyuncs.com/mengfanxiao/hadoop:v1.0
# 将镜像文件上传到阿里镜像库
docker push registry.cn-shanghai.aliyuncs.com/mengfanxiao/hadoop:v1.0


镜像生成好之后分别在3台服务器上下载镜像 然后通过脚本启动镜像


# 下载镜像
docker pull registry.cn-shanghai.aliyuncs.com/mengfanxiao/hadoop:v1.0
# 启动镜像脚本
cd /opt/bigdata/docker-hadoop-test
chmod 777 hadoop.sh
./hadoop.sh



image.png


image.png


启动hadoop集群


先通过流程图来梳理一下启动的步骤


微信图片_20220425214620.png


image.png


两个NameNode为了数据同步,会通过一组称作JournalNodes的独立进程进行相互通信
当active状态的NameNode的命名空间有任何修改时 会告知大部分的JournalNodes进程
standby状态的NameNode有能力读取JNs中的变更信息,并且一直监控edit log的变化,把变化应用于自己的命名空间
standby可以确保在集群出错时,命名空间状态已经完全同步了


image.png


image.png


namenode宕机了 可以手工或者自动切换


在hadoop1启动所有JournalNode


cd /usr/local/hadoop/sbin
chmod 777 hadoop-daemons.sh
hadoop-daemons.sh start journalnode


多个NameNode之间共享数据方式


  • Nnetwork File Syste


通过linux共享的文件系统,属于操作系统的配置


  • Quorum Journal Node


hadoop自身的东西,属于软件的配置
手工或者自动切换到另一个NameNode提供服务


image.png

相关实践学习
基于MaxCompute的热门话题分析
Apsara Clouder大数据专项技能认证配套课程:基于MaxCompute的热门话题分析
相关文章
|
分布式计算 Hadoop Java
Hadoop学习指南:探索大数据时代的重要组成——运行环境搭建
Hadoop学习指南:探索大数据时代的重要组成——运行环境搭建
176 0
|
分布式计算 资源调度 Hadoop
大数据Hadoop运行环境搭建
大数据Hadoop运行环境搭建
324 0
|
SQL 消息中间件 存储
搭建大数据运行环境之二(4)
搭建大数据运行环境之二(4)
210 0
搭建大数据运行环境之二(4)
|
存储 大数据 关系型数据库
搭建大数据运行环境之二(3)
搭建大数据运行环境之二(3)
138 0
搭建大数据运行环境之二(3)
|
分布式计算 大数据 Hadoop
搭建大数据运行环境之二(2)
搭建大数据运行环境之二(2)
197 0
搭建大数据运行环境之二(2)
|
分布式计算 大数据 Hadoop
搭建大数据运行环境之一
搭建大数据运行环境之一
209 0
搭建大数据运行环境之一
|
分布式计算 资源调度 安全
大数据之Hadoop3.x 运行环境搭建(手把手搭建集群)
安装模板虚拟机,IP 地址 192.168.10.100、主机名称 hadoop100、内存 4G、硬盘 50G
1817 0
大数据之Hadoop3.x 运行环境搭建(手把手搭建集群)
|
分布式计算 大数据 数据处理
|
5天前
|
机器学习/深度学习 传感器 分布式计算
数据才是真救命的:聊聊如何用大数据提升灾难预警的精准度
数据才是真救命的:聊聊如何用大数据提升灾难预警的精准度
65 14
|
2月前
|
机器学习/深度学习 运维 监控
运维不怕事多,就怕没数据——用大数据喂饱你的运维策略
运维不怕事多,就怕没数据——用大数据喂饱你的运维策略
74 0

热门文章

最新文章

  • 1
    人工智能平台PAI产品使用合集之如何在odps上启动独立的任务
    185
  • 2
    DataWorks操作报错合集之出现报错“odps-0123055:用户脚本异常-Traceback(最后一次调用)”,如何解决
    431
  • 3
    人工智能平台PAI操作报错合集之在ODPS的xxx_dev项目空间调用easyrec训练,需要访问yyy项目空间的OSS,出现报错,是什么导致的
    139
  • 4
    MaxCompute操作报错合集之创建oss外部表时出现了报错:"Semantic analysis exception - external table checking failure, error message:,该怎么办
    413
  • 5
    MaxCompute操作报错合集之在本地用tunnel命令上传excel表格到mc遇到报错: tunnel upload C:\Users***\Desktop\a.xlsx mc里的非分区表名 -s false;该怎么办
    169
  • 6
    DataWorks操作报错合集之数据源同步时,使用脚本模式采集mysql数据到odps中,使用querySql方式采集数据,在脚本中删除了Reader中的column,但是datax还是报错OriginalConfPretreatmentUtil - 您的配置有误。如何解决
    379
  • 7
    MaxCompute操作报错合集之通过UDF调用异常(其他使用http调用正常)。报错:java.lang.NoSuchMethodError:是什么导致的
    178
  • 8
    MaxCompute操作报错合集之查询外部表insert到内部表报错,两表字段一致,是什么原因
    163
  • 9
    MaxCompute操作报错合集之出现报错:invalid dynamic partition value: \ufffd\ufffd\ufffd\ufffd\ufffd\ufffd是什么原因
    369
  • 10
    MaxCompute产品使用合集之如何设置每次返回超过10000行记录
    192