Zookeeper——集群搭建 & 选举机制

本文涉及的产品
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
云原生网关 MSE Higress,422元/月
注册配置 MSE Nacos/ZooKeeper,118元/月
简介: Zookeeper——集群搭建 & 选举机制

文章目录:


1.前言

2.步骤详解

3.选举机制

3.1 第一次启动

3.2 非第一次启动

1.前言


继上一篇文章中,我学过了Zookeeper的一些概念、配置文件以及Linux下本地启动。那么这篇文章来讲讲关于Zookeeper集群的相关操作步骤。

2.步骤详解


首先我们需要准备三台机器,这里就对我原有的Linux进行链接克隆,再克隆两台,一共三台就可以了。克隆完之后,我们首先需要对克隆的这两台机器的ip主机名做一下修改。

修改 ip 命令如下:👇👇👇我这里的三台机器分别是 130131132,大家根据自己的去修改。

vi /etc/sysconfig/network-scripts/ifcfg-ens33
#下面这条命令在修改完上面的ip地址之后执行,重启网络服务
systemctl restart network

修改主机名,同时将 ip 与主机名形成映射关系。分别对应下面的命令:👇👇👇

我这里是将三台机器的主机名设置成了 zk101zk102zk103  修改完成之后,可以使用hostname命令查看

hostnamectl set-hostname zk101
hostnamectl set-hostname zk102
hostnamectl set-hostname zk103
vi /etc/hosts


下面要做的就是将 zookeeper 压缩包分别上传至 zk102zk103这两台机器上,rz -E 可以、Xftp也行、或者windows找到压缩包直接拉取也行。

之后解压、改名、修改配置文件、创建zkData等这些步骤我就不再详细说了,大家可以参考:https://blog.csdn.net/weixin_43823808/article/details/124593569


下面就是集群搭建的新步骤,首先需要修改每台机器上的zookeeper的配置文件:zoo.cfg,重要的是最后的那几行配置,这里我是在 zk102 上先修改的,这个无所谓,修改完成之后,可以到zk101zk103上做同样的修改。

这里我对上面配置文件中的server.1=zk101:2888:3888这行配置做个简单解释:

server.A=B:C:D

A是一个数字,表示这个是第几号服务器;集群模式下配置一个文件 myid,这个文件在dataDir 目录下,这个文件里面有一个数据就是 A 的值,Zookeeper 启动时读取此文件,拿到里面的数据与 zoo.cfg 里面的配置信息比较从而判断到底是哪个 server

B是这个服务器的地址;

C是这个服务器 Follower 与集群中的 Leader 服务器交换信息的端口;

D是万一集群中的 Leader 服务器挂了,需要一个端口来重新进行选举,选出一个新的Leader,而这个端口就是用来执行选举时服务器相互通信的端口。


然后我们需要配置一个新东西,叫服务器编号。

/opt/module/zookeeper-3.5.7/zkData 目录下创建一个myid 的文件。在文件中添加与 server 对应的编号(注意:上下不要有空行,左右不要有空格),也就是zk101myid1zk102myid2zk103myid3


以上需要配置的我们配置了,需要修改的我们修改了,下面就可以依次启动集群了。


三台机器都启动成功之后,下面使用命令查看集群中各个节点的状态,看看谁是 Leader、谁是 Follower

以上,关于zookeeper的集群搭建及启动就完成了,如果大家感觉这样一次一次启动太麻烦,也可以写一个shell脚本,来完成对三台zookeeper的一次性启动。

#!/bin/bash
case $1 in
"start"){
  for i in 192.168.40.130 192.168.40.131 192.168.40.132
  do
    echo ---------------- zookeeper $i 启动 ----------------
    ssh $i "/opt/module/zookeeper-3.5.7/bin/zkServer.sh start"
  done
}
;;
"stop"){
  for i in 192.168.40.130 192.168.40.131 192.168.40.132
  do
    echo ---------------- zookeeper $i 停止 ----------------
    ssh $i "/opt/module/zookeeper-3.5.7/bin/zkServer.sh stop"
  done
}
;;
"status"){
  for i in 192.168.40.130 192.168.40.131 192.168.40.132
  do
    echo ---------------- zookeeper $i 状态 ----------------
    ssh $i "/opt/module/zookeeper-3.5.7/bin/zkServer.sh status"
  done
}
;;
esac

写好之后,我们在 /bin 目录下,创建一个可执行脚本:zk.sh,将上面写好的内容copy进去,之后 :wq!保存退出即可。

如果说这个脚本的执行权限不够,可以执行 chmod 777 zk.sh 为它赋予最大权限。最后执行就可以了。


从上面的脚本执行截图中可以看到,我们写的 startstatus都是可以正常执行的。 

3.选举机制


3.1 第一次启动

我们假设这个zookeeper集群有5台服务器,下面简单说一下它的流程。


1)服务器1启动,发起一次选举。服务器1是自私的,那么它先投自己一票。此时服务器1票数一票,不够半数以上(3票),选举无法完成,服务器1状态保持为LOOKING

2)服务器2启动,再发起一次选举。服务器12分别投自己一票(此时服务器11票、服务器21票),然后服务器2会与服务器1交换选票信息:服务器2会把自己这1票先给服务器1,那么服务器1就有1+1=2票,服务器2就有1-1=0票,此时服务器1发现服务器2myid比自己目前投票推举的(服务器1)大,它就会更改选票为推举服务器2,同时将自己手中的2票再交换给服务器2此时服务器1票数0票,服务器2票数2票,票数也没有达到集群半数以上的结果,选举无法完成,服务器12状态保持LOOKING


3)服务器3启动,发起一次选举。服务器3仍然会向第二步那样与服务器2进行交换选票信息(服务器10票、服务器22票、服务器3投给自己所以是1票),那么服务器3和服务器2交换之后,服务器2就有2+1=3票、服务器3就有1-1=0票,此时服务器2发现服务器3myid比自己目前投票推举的(服务器2)大,它就会更改选票为推举服务器3,同时将自己手中的3票再交换给服务器3此时服务器12都会更改选票为服务器3。此次投票结果:服务器10票,服务器20票,服务器33票。此时服务器3的票数已经超过集群中的半数,所以服务器3当选Leader。服务器12更改状态为FOLLOWING,服务器3更改状态为LEADING


4)服务器4启动,发起一次选举。此时服务器123已经不是LOOKING状态,不会更改选票信息。交换选票信息结果:服务器33票,服务器41票。此时服务器4服从多数,更改选票信息为服务器3,并更改状态为FOLLOWING

5)服务器5启动,同4一样当小弟。  

3.2 非第一次启动


1)当ZooKeeper集群中的一台服务器出现以下两种情况之一时,就会开始进入Leader选举:

·       服务器初始化启动。

·       服务器运行期间无法和Leader保持连接。

2)而当一台机器进入Leader选举流程时,当前集群也可能会处于以下两种状态:

·       集群中本来就已经存在一个Leader对于第一种已经存在Leader的情况,机器试图去选举Leader时,会被告知当前服务器的Leader信息,对于该机器来说,仅仅需要和Leader机器建立连接,并进行状态同步即可。

·       集群中确实不存在Leader假设ZooKeeper5台服务器组成,SID分别为12345ZXID分别为88877,并且此时SID3的服务器是Leader。某一时刻,35服务器出现故障,因此开始进行Leader选举。

SID124的机器投票情况:  EPOCHZXIDSID            EPOCHZXIDSID               EPOCHZXIDSID

                                                               181                                  182                                      174

选举Leader规则:EPOCH大的直接胜出EPOCH相同,事务id大的胜出事务id相同,服务器id大的胜出。

相关实践学习
基于MSE实现微服务的全链路灰度
通过本场景的实验操作,您将了解并实现在线业务的微服务全链路灰度能力。
相关文章
|
1月前
|
分布式计算 负载均衡 算法
Hadoop-31 ZooKeeper 内部原理 简述Leader选举 ZAB协议 一致性
Hadoop-31 ZooKeeper 内部原理 简述Leader选举 ZAB协议 一致性
30 1
|
1月前
|
分布式计算 Java Hadoop
Hadoop-30 ZooKeeper集群 JavaAPI 客户端 POM Java操作ZK 监听节点 监听数据变化 创建节点 删除节点
Hadoop-30 ZooKeeper集群 JavaAPI 客户端 POM Java操作ZK 监听节点 监听数据变化 创建节点 删除节点
62 1
|
1月前
|
分布式计算 监控 Hadoop
Hadoop-29 ZooKeeper集群 Watcher机制 工作原理 与 ZK基本命令 测试集群效果 3台公网云服务器
Hadoop-29 ZooKeeper集群 Watcher机制 工作原理 与 ZK基本命令 测试集群效果 3台公网云服务器
42 1
|
1月前
|
分布式计算 Hadoop Unix
Hadoop-28 ZooKeeper集群 ZNode简介概念和测试 数据结构与监听机制 持久性节点 持久顺序节点 事务ID Watcher机制
Hadoop-28 ZooKeeper集群 ZNode简介概念和测试 数据结构与监听机制 持久性节点 持久顺序节点 事务ID Watcher机制
42 1
|
1月前
|
分布式计算 Hadoop
Hadoop-27 ZooKeeper集群 集群配置启动 3台云服务器 myid集群 zoo.cfg多节点配置 分布式协调框架 Leader Follower Observer
Hadoop-27 ZooKeeper集群 集群配置启动 3台云服务器 myid集群 zoo.cfg多节点配置 分布式协调框架 Leader Follower Observer
48 1
|
1月前
|
存储 SQL 消息中间件
Hadoop-26 ZooKeeper集群 3台云服务器 基础概念简介与环境的配置使用 架构组成 分布式协调框架 Leader Follower Observer
Hadoop-26 ZooKeeper集群 3台云服务器 基础概念简介与环境的配置使用 架构组成 分布式协调框架 Leader Follower Observer
49 0
|
2月前
|
存储 负载均衡 算法
分布式-Zookeeper-Master选举
分布式-Zookeeper-Master选举
|
4月前
|
存储 数据库
zookeeper 集群环境搭建及集群选举及数据同步机制
zookeeper 集群环境搭建及集群选举及数据同步机制
74 2
|
3月前
|
开发工具
部署安装zookeeper集群
部署安装zookeeper集群
|
2月前
|
安全 应用服务中间件 API
微服务分布式系统架构之zookeeper与dubbo-2
微服务分布式系统架构之zookeeper与dubbo-2
下一篇
无影云桌面