Zookeeper02之集群环境搭建

本文涉及的产品
注册配置 MSE Nacos/ZooKeeper,118元/月
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
云原生网关 MSE Higress,422元/月
简介: Zookeeper02之集群环境搭建


 在上文的基础上本文来介绍下zookeeper的集群搭建。准备环境如果不清楚的可以参考上文:

Zookeeper01之介绍和安装环境准备

Zookeeper集群搭建

1.获取安装文件并解压

官网地址:http://zookeeper.apache.org/

下载地址:http://mirror.bit.edu.cn/apache/zookeeper/

Linux下载命令:

wget http://mirror.bit.edu.cn/apache/zookeeper/zookeeper-3.4.10/zookeeper-3.4.10.tar.gz

image.png

解压缩安装文件

tar -zxvf zookeeper-3.4.10.tar.gz

目录结构说明

cd命令进入解压文件夹

image.png

image.png

2.配置zoo.cfg文件

从上面的目录结构我们指定配置文件保存在conf目录下,所以我们cd到conf目录下

[root@hadoop-node01 zookeeper-3.4.10]# cd conf
[root@hadoop-node01 conf]# ll
总用量 12
-rw-rw-r--. 1 1001 1001  535 3月  23 2017 configuration.xsl
-rw-rw-r--. 1 1001 1001 2161 3月  23 2017 log4j.properties
-rw-rw-r--. 1 1001 1001  922 3月  23 2017 zoo_sample.cfg
[root@hadoop-node01 conf]# 

1.将zoo_sample.cfg重命名为zoo.cfg

[root@hadoop-node01 conf]# mv zoo_sample.cfg zoo.cfg
[root@hadoop-node01 conf]# ll
总用量 12
-rw-rw-r--. 1 1001 1001  535 3月  23 2017 configuration.xsl
-rw-rw-r--. 1 1001 1001 2161 3月  23 2017 log4j.properties
-rw-rw-r--. 1 1001 1001  922 3月  23 2017 zoo.cfg
[root@hadoop-node01 conf]# 

2.修改zoo.cfg配置文件

修改的地方有两处:

   修改zookeeper存储数据的位置

   添加集群节点信息

# The number of milliseconds of each tick
tickTime=2000
# The number of ticks that the initial 
# synchronization phase can take
initLimit=10
# The number of ticks that can pass between 
# sending a request and getting an acknowledgement
syncLimit=5
# the directory where the snapshot is stored.
# do not use /tmp for storage, /tmp here is just 
# example sakes.
dataDir=/root/app/zookeeper-3.4.10/zkData
dataLogDir=/root/app/zookeeper-3.4.10/zkLog
# the port at which the clients will connect
clientPort=2181
# the maximum number of client connections.
# increase this if you need to handle more clients
#maxClientCnxns=60
#
# Be sure to read the maintenance section of the 
# administrator guide before turning on autopurge.
#
# http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance
#
# The number of snapshots to retain in dataDir
#autopurge.snapRetainCount=3
# Purge task interval in hours
# Set to "0" to disable auto purge feature
#autopurge.purgeInterval=1
server.1=hadoop-node01:2888:3888
server.2=hadoop-node02:2888:3888
server.3=hadoop-node03:2888:3888

配置说明

image.png

3.myid配置

在 zookeeper的数据的存储目录中创建 myid文件,本文既是zkData目录下,这个myid中的内容只有一行信息,即表示我们集群节点的标示,范围在1~255之间。每个节点中的myid的数字和我们在zoo.cfg中的server.数字=host…对应,

创建这块Data目录:

mkdir zkData

创建myid并设置值为1(hadoop-node01节点)

[root@hadoop-node01 zookeeper-3.4.10]# echo 1 > zkData/myid
[root@hadoop-node01 zookeeper-3.4.10]# cat zkData/myid
1

4.分发安装文件

将我们hadoop-node01上安装配置的环境分发到hadoop-node02和hadoop-node03两个节点相同的目录下:

scp -r zookeeper-3.4.10 hadoop-node02:`pwd`
scp -r zookeeper-3.4.10 hadoop-node03:`pwd`

确认分发成功后分别修改hadoop-node02和hadoop-node03上的myid的值分别为2,3

image.png

5.启动

分别在三个节点的zookeeper的安装根目录下执行如下启动命令:

./bin/zkServer.sh start

image.png

查看状态,分别在每个节点上执行

./bin/zkServer.sh status

hadoop-node01

image.png

hadoop-node02

image.png

hadoop-node03

image.png

说明启动成功

6.测试

我们将zookeeper集群节点半数存活即可用,我们现在是3个节点,那么我们kill掉一个节点应该还可以继续使用,kill掉两个就不能够使用了。所以我们来测试下

查看zookeeper进程编号

通过jps命令即可查看

[root@hadoop-node02 zookeeper-3.4.10]# jps
1559 QuorumPeerMain #这个是zookeeper的服务
1646 Jps

kill 掉这个节点,也就是leader节点

[root@hadoop-node02 zookeeper-3.4.10]# jps
1559 QuorumPeerMain
1646 Jps
[root@hadoop-node02 zookeeper-3.4.10]# kill -9 1559
[root@hadoop-node02 zookeeper-3.4.10]# jps
1668 Jps

再次查看另外两个节点情况

hadoop-node01

image.png

hadoop-node03

image.png-node03变成了leader节点了。

再次将leader节点kill掉

再次将leader节点kill掉,也就是将3个集群节点中的两个kill掉后发现集群不可用了。

[root@hadoop-node03 zookeeper-3.4.10]# jps
1237 QuorumPeerMain
1325 Jps
[root@hadoop-node03 zookeeper-3.4.10]# kill -9 1237
[root@hadoop-node03 zookeeper-3.4.10]# 

查看hadoop-node01

image.png

Zookeeper的选举机制

为什么要进行Leader选举?

Leader 主要作用是保证分布式数据一致性,即每个节点的存储的数据同步。遇到以下两种情况需要进行Leader选举

   服务器初始化启动

   服务器运行期间无法和Leader保持连接,Leader节点崩溃,逻辑时钟崩溃。

1.服务器初始化时Leader选举

 zookeeper由于其自身的性质,一般建议选取奇数个节点进行搭建分布式服务器集群。以3个节点组成的服务器集群为例,说明服务器初始化时的选举过程。启动第一台安装zookeeper的节点时,无法单独进行选举,启动第二台时,两节点之间进行通信,开始选举Leader。

1)每个Server投出一票。他们两都选自己为Leader,投票的内容为(SID,ZXID)。
SID即Server的id,安装zookeeper时配置文件中所配置的myid;ZXID,事务id,
为节点的更新程度,ZXID越大,代表Server对Znode的操作越新。由于服务器初始化,
每个Sever上的Znode为0,所以Server1投的票为(1,0),Server2为(2,0)。
两Server将各自投票发给集群中其他机器。
2)每个Server接收来自其他Server的投票。集群中的每个Server先判断投票有效性,
如检查是不是本轮的投票,是不是来Looking状态的服务器投的票。
3)对投票结果进行处理。先了解下处理规则
 - 首先对比ZXID。ZXID大的服务器优先作为Leader
 - 若ZXID相同,比如初始化的时候,每个Server的ZXID都为0,
 - 就会比较myid,myid大的选出来做Leader。
对于Server而言,他接受到的投票为(2,0),因为自身的票为(1,0),所以此时它会选举Server2为Leader,
将自己的更新为(2,0)。而Server2收到的投票为Server1的(1,0)由于比他自己小,
Server2的投票不变。Server1和Server2再次将票投出,投出的票都为(2,0)。
4) 统计投票。每次投票之后,服务器都会统计投票信息,如果判定某个Server有过半的票数投它,
那么该Server将会作为Leader。对于Server1和Server2而言,统计出已经有两台机器接收了(2,0)的投票信息,
此时认为选出了Leader。
5)改变服务器状态。当确定了Leader之后,每个Server更新自己的状态,
Leader将状态更新为Leading,Follower将状态更新为Following。

2.服务器运行期间的Leader选举

 zookeeper运行期间,如果有新的Server加入,或者非Leader的Server宕机,那么Leader将会同步数据到新Server或者寻找其他备用Server替代宕机的Server。若Leader宕机,此时集群暂停对外服务,开始在内部选举新的Leader。假设当前集群中有Server1、Server2、Server3三台服务器,Server2为当前集群的Leader,由于意外情况,Server2宕机了,便开始进入选举状态。过程如下

1) 变更状态。其他的非Observer服务器将自己的状态改变为Looking,开始进入Leader选举。
2) 每个Server发出一个投票(myid,ZXID),由于此集群已经运行过,所以每个Server上的ZXID可能不同。
假设Server1的ZXID为145,Server3的为122,第一轮投票中,Server1和Server3都投自己,
票分别为(1,145)、(3,122),将自己的票发送给集群中所有机器。
3) 每个Server接收接收来自其他Server的投票,接下来的步骤与初始化时相同。


相关实践学习
基于MSE实现微服务的全链路灰度
通过本场景的实验操作,您将了解并实现在线业务的微服务全链路灰度能力。
相关文章
|
1月前
|
分布式计算 Java Hadoop
Hadoop-30 ZooKeeper集群 JavaAPI 客户端 POM Java操作ZK 监听节点 监听数据变化 创建节点 删除节点
Hadoop-30 ZooKeeper集群 JavaAPI 客户端 POM Java操作ZK 监听节点 监听数据变化 创建节点 删除节点
62 1
|
1月前
|
分布式计算 监控 Hadoop
Hadoop-29 ZooKeeper集群 Watcher机制 工作原理 与 ZK基本命令 测试集群效果 3台公网云服务器
Hadoop-29 ZooKeeper集群 Watcher机制 工作原理 与 ZK基本命令 测试集群效果 3台公网云服务器
39 1
|
1月前
|
分布式计算 Hadoop Unix
Hadoop-28 ZooKeeper集群 ZNode简介概念和测试 数据结构与监听机制 持久性节点 持久顺序节点 事务ID Watcher机制
Hadoop-28 ZooKeeper集群 ZNode简介概念和测试 数据结构与监听机制 持久性节点 持久顺序节点 事务ID Watcher机制
41 1
|
1月前
|
分布式计算 Hadoop
Hadoop-27 ZooKeeper集群 集群配置启动 3台云服务器 myid集群 zoo.cfg多节点配置 分布式协调框架 Leader Follower Observer
Hadoop-27 ZooKeeper集群 集群配置启动 3台云服务器 myid集群 zoo.cfg多节点配置 分布式协调框架 Leader Follower Observer
47 1
|
2月前
|
Java 网络安全
zookeeper的环境搭建和配置
本文介绍了如何在多台节点上搭建和配置Zookeeper环境。内容包括Zookeeper的下载、解压、环境变量配置、配置文件修改、zkdata目录创建、myid文件设置,以及将Zookeeper及其配置文件复制到其他节点。还提供了运行测试的命令,包括启动、状态检查和停止Zookeeper服务。
zookeeper的环境搭建和配置
|
1月前
|
存储 SQL 消息中间件
Hadoop-26 ZooKeeper集群 3台云服务器 基础概念简介与环境的配置使用 架构组成 分布式协调框架 Leader Follower Observer
Hadoop-26 ZooKeeper集群 3台云服务器 基础概念简介与环境的配置使用 架构组成 分布式协调框架 Leader Follower Observer
47 0
|
4月前
|
存储 数据库
zookeeper 集群环境搭建及集群选举及数据同步机制
zookeeper 集群环境搭建及集群选举及数据同步机制
72 2
|
3月前
|
开发工具
部署安装zookeeper集群
部署安装zookeeper集群
|
5月前
|
Java 网络安全
分布式系统详解--框架(Zookeeper-简介和集群搭建)
分布式系统详解--框架(Zookeeper-简介和集群搭建)
128 0
|
6月前
|
存储 Java 网络安全
ZooKeeper【搭建 03】apache-zookeeper-3.6.0 伪集群版(一台服务器实现三个节点的ZooKeeper集群)
【4月更文挑战第10天】ZooKeeper【搭建 03】apache-zookeeper-3.6.0 伪集群版(一台服务器实现三个节点的ZooKeeper集群)
79 1