分布式系列教程(08) -分布式协调工具Zookeeper(介绍&安装&配置详解)

本文涉及的产品
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
简介: 分布式系列教程(08) -分布式协调工具Zookeeper(介绍&安装&配置详解)

本文目录结构:

l____1. Zookeeper简介

l________1.1 Zookeeper集群机

l________1.2 Zookeeper特性

l________1.3 Zookeeper数据结构

l____2. Zookeeper应用场景

l________2.1 数据发布与订阅(配置中心)

l________2.2 负载均衡

l________2.3 命名服务(Naming Service)

l________2.4 分布式通知/协调

l________2.5 集群管理与Master选举

l___________2.5.1 Master选举应用场景

l________2.6 分布式锁

l________2.7 分布式事务

l____3. Zookeeper安装

l________3.1 Linux下Zookeeper集群环境搭建

l________3.2 Windows下安装

l________3.3 Zookeeper配置文件介绍

l____总结

1. Zookeeper简介

Zookeeper是一个分布式开源框架,提供了协调分布式应用的基本服务,它向外部应用暴露一组通用服务,例如分布式同步(Distributed Synchronization)、命名服务(Naming Service)、集群维护(Group Maintenance)等,简化分布式应用协调及其管理的难度,提供高性能的分布式服务。

ZooKeeper本身可以以单机模式安装运行,不过它的长处在于通过分布式ZooKeeper集群(一个Leader,多个Follower),基于一定的策略来保证ZooKeeper集群的稳定性和可用性,从而实现分布式应用的可靠性。

  1. Zookeeper 是为别的分布式程序服务的
  2. Zookeeper 本身就是一个分布式程序(只要有半数以上节点存活,zk就能正常服务)
  3. Zookeeper 所提供的服务涵盖:主从协调、服务器节点动态上下线、统一配置管理、分布式共享锁、统一名称服务等。
  4. 虽然说可以提供各种服务,但是zookeeper在底层其实只提供了两个功能:
    ------ 管理(存储,读取)用户程序提交的数据(类似namenode中存放的metadata);
    ------ 为用户程序提供数据节点监听服务;

1.1 Zookeeper集群机

  • Zookeeper集群的角色:LeaderFollower
  • 只要集群中有半数以上节点存活,集群就能提供服务

1.2 Zookeeper特性

  1. Zookeeper:一个Leader,多个Follower组成的集群。
  2. 全局数据一致:每个server保存一份相同的数据副本,client无论连接到哪个server,数据都是一致的。
  3. 分布式读写,更新请求转发,由leader实施。
  4. 更新请求顺序进行,来自同一个client的更新请求按其发送顺序依次执行。
  5. 数据更新原子性,一次数据更新要么成功,要么失败。
  6. 实时性,在一定时间范围内,client能读到最新数据。

1.3 Zookeeper数据结构

层次化的目录结构,命名符合常规文件系统规范(类似文件系统)

  • 每个节点在zookeeper中叫做znode,并且其有一个唯一的路径标识
  • 节点Znode可以包含数据和子节点(但是EPHEMERAL类型的节点不能有子节点)

节点类型 :

  • Znode有两种类型:
    ------ 短暂(ephemeral)(create -e /app1/test1 “test1” 客户端断开连接zk删除ephemeral类型节点)
    ------ 持久(persistent) (create -s /app1/test2 “test2” 客户端断开连接zk不删除persistent类型节点)
  • Znode有四种形式的目录节点(默认是persistent )

PERSISTENT PERSISTENT_SEQUENTIAL(持久序列/test0000000019 ) EPHEMERAL

EPHEMERAL_SEQUENTIAL

  • 创建znode时设置顺序标识,znode名称后会附加一个值,顺序号是一个单调递增的计数器,由父节点维护
  • 在分布式系统中,顺序号可以被用于为所有的事件进行全局排序,这样客户端可以通过顺序号推断事件的顺序。

2. Zookeeper应用场景

2.1 数据发布与订阅(配置中心)

发布与订阅模型,即所谓的配置中心,顾名思义就是发布者将数据发布到ZK节点上,供订阅者动态获取数据,实现配置信息的集中式管理和动态更新。例如全局的配置信息,服务式服务框架的服务地址列表等就非常适合使用

2.2 负载均衡

这里说的负载均衡是指软负载均衡。在分布式环境中,为了保证高可用性,通常同一个应用或同一个服务的提供方都会部署多份,达到对等服务。而消费者就须要在这些对等的服务器中选择一个来执行相关的业务逻辑,其中比较典型的是消息中间件中的生产者,消费者负载均衡

消息中间件中发布者和订阅者的负载均衡,Linkedin开源的KafkaMQ和阿里开源的 metaq都是通过zookeeper来做到生产者、消费者的负载均衡。这里以metaq为例讲下:

  • 生产者负载均衡:metaq发送消息的时候,生产者在发送消息的时候必须选择一台broker上的一个分区来发送消息,因此metaq在运行过程中,会把所有broker和对应的分区信息全部注册到ZK指定节点上,默认的策略是一个依次轮询的过程,生产者在通过ZK获取分区列表之后,会按照brokerId和partition的顺序排列组织成一个有序的分区列表,发送的时候按照从头到尾循环往复的方式选择一个分区来发送消息。
  • 消费者负载均衡: 在消费过程中,一个消费者会消费一个或多个分区中的消息,但是一个分区只会由一个消费者来消费。MetaQ的消费策略是:

2.3 命名服务(Naming Service)

命名服务也是分布式系统中比较常见的一类场景。在分布式系统中,通过使用命名服务,客户端应用能够根据指定名字来获取资源或服务的地址,提供者等信息。

被命名的实体通常可以是集群中的机器、提供的服务地址、远程对象等等。这些我们都可以统称他们为名字(Name)。其中较为常见的就是一些分布式服务框架中的服务地址列表。通过调用ZK提供的创建节点的API,能够很容易创建一个全局唯一的path,这个path就可以作为一个名称。

阿里巴巴集团开源的分布式服务框架Dubbo中使用ZooKeeper来作为其命名服务,维护全局的服务地址列表, 点击这里查看Dubbo开源项目。在Dubbo实现中:

  • 服务提供者在启动的时候,向ZK上的指定节点/dubbo/${serviceName}/providers目录下写入自己的URL地址,这个操作就完成了服务的发布。
  • 服务消费者启动的时候,订阅/dubbo/${serviceName}/providers目录下的提供者URL地址, 并向/dubbo/${serviceName} /consumers目录下写入自己的URL地址。

注意,所有向ZK上注册的地址都是临时节点,这样就能够保证服务提供者和消费者能够自动感应资源的变化。 另外,Dubbo还有针对服务粒度的监控,方法是订阅/dubbo/${serviceName}目录下所有提供者和消费者的信息。

2.4 分布式通知/协调

ZooKeeper中特有watcher注册与异步通知机制,能够很好的实现分布式环境下不同系统之间的通知与协调,实现对数据变更的实时处理。使用方法通常是不同系统都对ZK上同一个znode进行注册,监听znode的变化(包括znode本身内容及子节点的),其中一个系统update了znode,那么另一个系统能够收到通知,并作出相应处理:

  1. 心跳检测机制:检测系统和被检测系统之间并不直接关联起来,而是通过zk上某个节点关联,大大减少系统耦合。
  2. 系统调度模式:某系统有控制台和推送系统两部分组成,控制台的职责是控制推送系统进行相应的推送工作。管理人员在控制台作的一些操作,实际上是修改了ZK上某些节点的状态,而ZK就把这些变化通知给他们注册Watcher的客户端,即推送系统,于是,作出相应的推送任务。
  3. 汇报模式:一些类似于任务分发系统,子任务启动后,到zk来注册一个临时节点,并且定时将自己的进度进行汇报(将进度写回这个临时节点),这样任务管理者就能够实时知道任务进度。

总之,使用zookeeper来进行分布式通知和协调能够大大降低系统之间的耦合

2.5 集群管理与Master选举

集群机器监控:这通常用于那种对集群中机器状态,机器在线率有较高要求的场景,能够快速对集群中机器变化作出响应。这样的场景中,往往有一个监控系统,实时检测集群机器是否存活。过去的做法通常是:监控系统通过某种手段(比如ping)定时检测每个机器,或者每个机器自己定时向监控系统汇报“我还活着”。 这种做法可行,但是存在两个比较明显的问题:

  1. 集群中机器有变动的时候,牵连修改的东西比较多
  2. 有一定的延时

利用ZooKeeper有两个特性,就可以实现另一种集群机器存活性监控系统:

  1. 客户端在节点 x 上注册一个Watcher,那么如果 x?的子节点变化了,会通知该客户端
  2. 创建EPHEMERAL类型的节点,一旦客户端和服务器的会话结束或过期,那么该节点就会消失

例如,监控系统在 /clusterServers 节点上注册一个Watcher,以后每动态加机器,那么就往/clusterServers 下创建一个 EPHEMERAL类型的节点:/clusterServers/{hostname}。 这样,监控系统就能够实时知道机器的增减情况,至于后续处理就是监控系统的业务了。

2.5.1 Master选举应用场景

在分布式环境中,相同的业务应用分布在不同的机器上,有些业务逻辑(例如一些耗时的计算,网络I/O处理),往往只需要让整个集群中的某一台机器进行执行,其余机器可以共享这个结果,这样可以大大减少重复劳动,提高性能,于是这个master选举便是这种场景下的碰到的主要问题。

利用ZooKeeper的强一致性,能够保证在分布式高并发情况下节点创建的全局唯一性,即:同时有多个客户端请求创建 /currentMaster 节点,最终一定只有一个客户端请求能够创建成功。利用这个特性,就能很轻易的在分布式环境中进行集群选取了。

另外,这种场景演化一下,就是动态Master选举。这就要用到EPHEMERAL_SEQUENTIAL类型节点的特性了。

上文中提到,所有客户端创建请求,最终只有一个能够创建成功。在这里稍微变化下,就是允许所有请求都能够创建成功,但是得有个创建顺序,于是所有的请求最终在ZK上创建结果的一种可能情况是这样:/currentMaster/{sessionId}-1 ,/currentMaster/{sessionId}-2,/currentMaster/{sessionId}-3 …..每次选取序列号最小的那个机器作为Master,如果这个机器挂了,由于他创建的节点会马上消失,那么之后最小的那个机器就是Master了。

在搜索系统中,如果集群中每个机器都生成一份全量索引,不仅耗时,而且不能保证彼此之间索引数据一致。因此让集群中的Master来进行全量索引的生成,然后同步到集群中其它机器。另外,Master选举的容灾措施是,可以随时进行手动指定master,就是说应用在zk在无法获取master信息时,可以通过比如http方式,向一个地方获取master。

在Hbase中,也是使用ZooKeeper来实现动态HMaster的选举。在Hbase实现中,会在ZK上存储一些ROOT表的地址和HMaster的地址,HRegionServer也会把自己以临时节点(Ephemeral)的方式注册到Zookeeper中,使得HMaster可以随时感知到各个HRegionServer的存活状态,同时,一旦HMaster出现问题,会重新选举出一个HMaster来运行,从而避免了HMaster的单点问题。

2.6 分布式锁

分布式锁,这个主要得益于 ZooKeeper 为我们保证了数据的强一致性

锁服务可以分为两类,一个是 “保持独占”,另一个是 “控制时序”。

  • 保持独占:就是所有试图来获取这个锁的客户端,最终只有一个可以成功获得这把锁。通常的做法是把 zk 上的一个 znode 看作是一把锁,通过 create znode 的方式来实现。所有客户端都去创建 /distribute_lock 节点,最终成功创建的那个客户端也即拥有了这把锁。
  • 控制时序:就是所有试图来获取这个锁的客户端,最终都是会被安排执行,只是有个全局时序了。做法和上面基本类似,只是这里 /distributelock 已经预先存在,客户端在它下面创建临时有序节点(这个可以通过节点的属性控制:CreateMode.EPHEMERALSEQUENTIAL 来指定)。Zk 的父节点(/distribute_lock)维持一份 sequence, 保证子节点创建的时序性,从而也形成了每个客户端的全局时序。

2.7 分布式事务

分布式事务也得益于 ZooKeeper 为我们保证了数据的强一致性

3. Zookeeper安装

因为没有这么多机器,本地也起不了那么多虚拟机,所以同一系统搭建3个Zookeeper服务。下面来讲解下,在Linux下搭建Zookeeper集群

3.1 Linux下Zookeeper集群环境搭建

环境要求:必须要有jdk环境,我的jdk是1.8 !

结构: 一共三个节点(zk服务器集群规模不小于3个节点),要求服务器之间系统时间保持一致。

下面来开始搭建zk集群:

1.使用ssh上传 zookeeper-3.4.6.tar.gz(安装包已上传至百度网盘,链接:https://pan.baidu.com/s/1TLUjaNuBWwQj7BGDvRq_MA 密码:32sv)

2.解压并重命名

tar -zxvf zookeeper-3.3.6.tar.gz 
mv zookeeper-3.3.6 zookeeper

3.修改zookeeper环境变量

vi /etc/profile

修改内容:

### Zookeeper
export ZOOKEEPER_HOME=/usr/local/zookeeper
export PATH=$JAVA_HOME/bin:$ZOOKEEPER_HOME/bin:$PATH

重新加载proofile

source /etc/profile

4.修改zoo_sample.cfg文件

重命名zoo_sample.cfg:

cd /usr/local/zookeeper/conf
mv zoo_sample.cfg zoo.cfg

修改conf:

  1. dataDir=/usr/local/zookeeper/data(注意同时在zookeeper创建data目录)
  2. 最后面添加:
    server.0=192.168.162.131:2888:3888
    server.1=192.168.162.131:2888:3889
    server.2=192.168.162.131:2888:3890

5.创建服务器标识

在第4步dataDir指定的目录下创建myid文件

cd /usr/local/zookeeper
mkdir data
vi myid

输入0,第4步骤,conf文件里有服务器表示,server.0、server.1、server.2。按实际情况填写。

6.复制Zookeeper到另外两个文件夹

mkdir zookeeper1
mkdir zookeeper1
\cp -rf /usr/local/zookeeper/* zookeeper1
\cp -rf /usr/local/zookeeper/* zookeeper2

修改/etc/profile文件

vi /etc/profile
### Zookeeper1
export ZOOKEEPER_HOME1=/usr/local/zookeeper1
export PATH=$JAVA_HOME/bin:$ZOOKEEPER_HOME1/bin:$PATH
### Zookeeper2
export ZOOKEEPER_HOME2=/usr/local/zookeeper2
export PATH=$JAVA_HOME/bin:$ZOOKEEPER_HOME2/bin:$PATH

重新加载proofile

source /etc/profile

7.把zookeeper1、 zookeeper2中的myid文件里的值修改为1和2

8.启动三台zookeeper:

路径: /usr/local/zookeeper目录/bin

执行: zkServer.sh start

/usr/local/zookeeper/bin/zkServer.sh start

当执行到第二台时,启动失败,提示已经运行了如下:

原因是由于配置文件zoo.cfg没配置进程,配置如下:

zookeeper:

zookeeper1:

zookeeper2:

9.再次重启三台zookeeper:

/usr/local/zookeeper/bin/zkServer.sh start
/usr/local/zookeeper1/bin/zkServer.sh start
/usr/local/zookeeper2/bin/zkServer.sh start

下图可以看到,均启动成功:

10.查询状态

/usr/local/zookeeper/bin/zkServer.sh status

可以看到zookeeper、zookeeper2为follower,zookeeper1为leader

3.2 Windows下安装

windos直接文字描述过程,不贴图了。

环境要求:

  • 必须要有jdk环境

过程:

  1. 安装jdk
  2. 安装Zookeeper. 在官网http://zookeeper.apache.org/下载zookeeper。我下载的是zookeeper-3.4.6版本。
  3. 解压zookeeper-3.4.6至D:\machine\zookeeper-3.4.6.
  4. 在D:\machine 新建data及log目录。
  5. ZooKeeper的安装模式分为三种,分别为:单机模式(stand-alone)、集群模式和集群伪分布模式。ZooKeeper 单机模式的安装相对比较简单,如果第一次接触ZooKeeper的话,建议安装ZooKeeper单机模式或者集群伪分布模式。
  6. 安装单击模式。 至D:\machine\zookeeper-3.4.6\conf 复制 zoo_sample.cfg 并粘贴到当前目录下,命名zoo.cfg.

3.3 Zookeeper配置文件介绍

zoo.cfg文件:

# The number of milliseconds of each tick 
tickTime=2000 
# The number of ticks that the initial  
# synchronization phase can take 
initLimit=10 
# The number of ticks that can pass between  
# sending a request and getting an acknowledgement 
syncLimit=5 
# the directory where the snapshot is stored. 
# do not use /tmp for storage, /tmp here is just  
# example sakes. 
dataDir=/home/myuser/zooA/data 
# the port at which the clients will connect 
clientPort=2181 
# ZooKeeper server and its port no. # ZooKeeper ensemble should know about every other machine in the ensemble # specify server id by creating 'myid' file in the dataDir # use hostname instead of IP address for convenient maintenance
server.1=127.0.0.1:2888:3888 
server.2=127.0.0.1:2988:3988  
server.3=127.0.0.1:2088:3088 
# 
# Be sure to read the maintenance section of the  
# administrator guide before turning on autopurge. 
# 
# http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance 
# 
# The number of snapshots to retain in dataDir 
# autopurge.snapRetainCount=3 
# Purge task interval in hours 
# Set to "0" to disable auto purge feature  <br>
#autopurge.purgeInterval=1 
dataLogDir=/home/myuser/zooA/log

tickTime:心跳时间,为了确保连接存在的,以毫秒为单位,最小超时时间为两个心跳时间

initLimit:多少个心跳时间内,允许其他server连接并初始化数据,如果ZooKeeper管理的数据较大,则应相应增大这个值

clientPort:服务的监听端口

dataDir:用于存放内存数据库快照的文件夹,同时用于集群的myid文件也存在这个文件夹里(注意:一个配置文件只能包含一个dataDir字样,即使它被注释掉了。)

dataLogDir:用于单独设置transaction log的目录,transaction log分离可以避免和普通log还有快照的竞争

syncLimit:多少个tickTime内,允许follower同步,如果follower落后太多,则会被丢弃。

server.A=B:C:D

  • A是一个数字,表示这个是第几号服务器
  • B是这个服务器的ip地址
  • C第一个端口用来集群成员的信息交换,表示的是这个服务器与集群中的Leader服务器交换信息的端口
  • D是在leader挂掉时专门用来进行选举leader所用

总结

相关实践学习
基于MSE实现微服务的全链路灰度
通过本场景的实验操作,您将了解并实现在线业务的微服务全链路灰度能力。
目录
相关文章
|
16天前
|
监控 负载均衡 Cloud Native
ZooKeeper分布式协调服务详解:面试经验与必备知识点解析
【4月更文挑战第9天】本文深入剖析ZooKeeper分布式协调服务原理,涵盖核心概念如Server、Client、ZNode、ACL、Watcher,以及ZAB协议在一致性、会话管理、Leader选举中的作用。讨论ZooKeeper数据模型、操作、会话管理、集群部署与管理、性能调优和监控。同时,文章探讨了ZooKeeper在分布式锁、队列、服务注册与发现等场景的应用,并在面试方面分析了与其它服务的区别、实战挑战及解决方案。附带Java客户端实现分布式锁的代码示例,助力提升面试表现。
30 2
|
1月前
|
监控 NoSQL Java
Zookeeper分布式锁
Zookeeper分布式锁
90 1
|
1月前
|
算法 数据处理 异构计算
CatBoost高级教程:分布式训练与大规模数据处理
CatBoost高级教程:分布式训练与大规模数据处理【2月更文挑战第15天】
245 14
|
2月前
|
Java Linux Spring
Zookeeper实现分布式服务配置中心
Zookeeper实现分布式服务配置中心
49 0
|
2月前
|
存储 分布式计算 Hadoop
ZooKeeper初探:分布式世界的守护者
ZooKeeper初探:分布式世界的守护者
64 0
|
2月前
|
机器学习/深度学习 分布式计算 Python
OpenAI Gym 高级教程——分布式训练与并行化
OpenAI Gym 高级教程——分布式训练与并行化
200 1
|
3月前
|
消息中间件 Java 网络安全
JAVAEE分布式技术之Zookeeper的第一次课
JAVAEE分布式技术之Zookeeper的第一次课
70 0
|
3月前
|
监控 Dubbo Java
深入理解Zookeeper系列-2.Zookeeper基本使用和分布式锁原理
深入理解Zookeeper系列-2.Zookeeper基本使用和分布式锁原理
61 0
|
3月前
|
NoSQL 中间件 API
分布式锁【数据库乐观锁实现的分布式锁、Zookeeper分布式锁原理、Redis实现的分布式锁】(三)-全面详解(学习总结---从入门到深化)(下)
分布式锁【数据库乐观锁实现的分布式锁、Zookeeper分布式锁原理、Redis实现的分布式锁】(三)-全面详解(学习总结---从入门到深化)
82 2
|
3月前
|
NoSQL Java API
分布式锁【数据库乐观锁实现的分布式锁、Zookeeper分布式锁原理、Redis实现的分布式锁】(三)-全面详解(学习总结---从入门到深化)(上)
分布式锁【数据库乐观锁实现的分布式锁、Zookeeper分布式锁原理、Redis实现的分布式锁】(三)-全面详解(学习总结---从入门到深化)
74 0