搭建高可用Hadoop集群

本文涉及的产品
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
简介: 搭建高可用Hadoop集群

文章目录

1.架构

前边已经搭建过单节点的hadoop,一旦出现NameNode机器出现了宕机,整个服务就不可用。一个很经典的模式HA集群,两个或则两个以上的集群机器配置NameNode,任意一个时刻,只有一个NameNode处于Active State,其他的处于Standby state状态,激活状态的NameNode负责所有客户端在集群的操作。

2.集群准备工作

需要安置单节点基础准备进行配置基础环境。

1)jdk配置

本地规划的4个节点,需要每台都安装Jdk1.8配置环境变量

2)ssh免密

Now check that you can ssh to the localhost without a passphrase:

 $ ssh localhost

If you cannot ssh to localhost without a passphrase, execute the following commands:

 $ ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa

 $ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

 $ chmod 0600 ~/.ssh/authorized_keys

可以将第一节点的公钥拷贝到其他节点。

3)其他的网络配置不在赘述。

3. 集群配置

1 基本配置

在单节点的基础上node01:

cd $HADOOP/etc/hadoop

vi core-site.xml 不需要改

vi hdfs-site.xml

    <property>

  <name>dfs.replication</name>

  <value>2</value>

     </property>

     <property>

  <name>dfs.namenode.name.dir</name>

  <value>/var/bigdata/hadoop/full/dfs/name</value>

     </property>

     <property>

  <name>dfs.datanode.data.dir</name>

  <value>/var/bigdata/hadoop/full/dfs/data</value>

     </property>

     <property>

  <name>dfs.namenode.secondary.http-address</name>

  <value>node02:50090</value>

     </property>

     <property>

  <name>dfs.namenode.checkpoint.dir</name>

  <value>/var/bigdata/hadoop/full/dfs/secondary</value>

     </property>

2 修改从节点

vi slaves

node02

node03

node04

3 将整个节点分发到node2,node3,node4

cd /opt

 scp -r ./bigdata/  node02:`pwd`

 scp -r ./bigdata/  node03:`pwd`

 scp -r ./bigdata/  node04:`pwd`

4 部署zookeeper

tar xf zook....tar.gz

mv zoo...    /opt/bigdata

cd /opt/bigdata/zoo....

cd conf

cp zoo_sample.cfg  zoo.cfg

vi zoo.cfg

datadir=/var/bigdata/hadoop/zk

server.1=node02:2888:3888

server.2=node03:2888:3888

server.3=node04:2888:3888

mkdir /var/bigdata/hadoop/zk

echo 1 >  /var/bigdata/hadoop/zk/myid  

其他节点也同样的操作。

5.操作流程

重点:初始化启动

1) 启动JN

hadoop-daemon.sh start journalnode  

2) 格式化NN,格式化一个集群中的节点即可

hdfs namenode -format

3) 另外的NN节点同步

hdfs namenode -bootstrapStandby

4.格式化zookeeper

hdfs zkfc  -formatZK

5.启动dfs

start-dfs.sh

6.访问页面观察信息

只有一个节点是active状态,另外一个节点是standby状态

8f61fcb38eeb475fb80fba45ad272a93.png

zookeeper节点锁信息

e001221f8a9f4b61bf578f54555ede6c.png

7 模拟active节点杀掉进程

当node01进程结束之后,node02变成active

973b02a2078d42d58b8a19031fed3970.png

zookeeper节点信息

9990c97e4d0a47eb9005086b5bf51f15.png


相关实践学习
基于MSE实现微服务的全链路灰度
通过本场景的实验操作,您将了解并实现在线业务的微服务全链路灰度能力。
相关文章
|
21天前
|
存储 分布式计算 资源调度
Hadoop【环境搭建 04】【hadoop-2.6.0-cdh5.15.2.tar.gz 基于ZooKeeper搭建高可用集群】(部分图片来源于网络)
【4月更文挑战第1天】Hadoop【环境搭建 04】【hadoop-2.6.0-cdh5.15.2.tar.gz 基于ZooKeeper搭建高可用集群】(部分图片来源于网络)
51 3
|
7天前
|
分布式计算 监控 Hadoop
Ganglia监控Hadoop与HBase集群
Ganglia监控Hadoop与HBase集群
|
7天前
|
机器学习/深度学习 SQL 分布式计算
Hadoop2.6(NN/RM)高可用集群安装与部署
Hadoop2.6(NN/RM)高可用集群安装与部署
|
12天前
|
存储 分布式计算 Hadoop
Hadoop集群搭建
Hadoop集群搭建
|
12天前
|
分布式计算 负载均衡 Hadoop
Hadoop集群节点添加
Hadoop集群节点添加
|
13天前
|
存储 分布式计算 Hadoop
Hadoop集群规模扩展
【4月更文挑战第14天】Hadoop集群扩展可通过添加更多节点、垂直扩展(增强单节点资源)和水平扩展(增加节点数量)来实现。关键点包括规划扩展策略、确保集群稳定性和优化配置。注意在扩展过程中要保证数据完整性,并根据需求调整以提升集群性能和效率。
11 1
|
17天前
|
分布式计算 资源调度 Hadoop
Hadoop【基础知识 03+04】【Hadoop集群资源管理器yarn】(图片来源于网络)(hadoop fs + hadoop dfs + hdfs dfs 使用举例)
【4月更文挑战第5天】Hadoop【基础知识 03】【Hadoop集群资源管理器yarn】(图片来源于网络)Hadoop【基础知识 04】【HDFS常用shell命令】(hadoop fs + hadoop dfs + hdfs dfs 使用举例)
44 9
|
18天前
|
分布式计算 资源调度 Hadoop
Hadoop【基础知识 03】【Hadoop集群资源管理器yarn】(图片来源于网络)
【4月更文挑战第4天】Hadoop【基础知识 03】【Hadoop集群资源管理器yarn】(图片来源于网络)
25 4
|
20天前
|
存储 分布式计算 Hadoop
【Hadoop】Hadoop的三种集群模式
【4月更文挑战第9天】【Hadoop】Hadoop的三种集群模式
|
21天前
|
分布式计算 资源调度 Hadoop
Hadoop【环境搭建 03】【hadoop-3.1.3 集群版】(附:集群启动&停止Shell脚本)
【4月更文挑战第1天】Hadoop【环境搭建 03】【hadoop-3.1.3 集群版】(附:集群启动&停止Shell脚本)
37 2