Zookeeper原理与设计

本文涉及的产品
云原生网关 MSE Higress,422元/月
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
注册配置 MSE Nacos/ZooKeeper,118元/月
简介: Paxos协议,以及在Zookeeper上的应用。 Zookeeper原理,包括集群结构、特性等。 Zookeeper的设计,包括QuorumPeer模型、leader选举、lead流程、followLeader流程、广播模式 Zookeeper写请求处理

之前写了两篇博客(链接见末尾处),分别是讲述ZAB协议恢复模式中leader选举以及数据同步的,这两篇博客都是偏细节类型的博客,如果对zookeeper并不熟悉,看起来可能比较吃力,所以今天就准备从整体层面聊一聊Zookeeper的原理以及实现。


一  Paxos

Zookeeper不管是leader选举,还是广播模式使用的都是paxos协议,确切来说是paxos协议的变种,所以我们首先了解一下Paxos。

1    分布式系统数据一致性问题

在基于消息投递的分布式系统中,可能存在参与者处理速度非常慢,宕机、重启、网络不稳定等的问题,从而导致消息可能会延迟、丢失或者重复。Paxos就是要解决分布式系统在上述任意异常情况下均能保持一致性的一个协议。

需要说明的是,此协议假设消息投递过程中不存在拜占庭问题,即消息不会出错。

2    故事

Lamport是通过故事的方式提出Paxos,故事如下;希腊岛屿Paxon上的执法者(legislators)在议会大厅(chamber)中表决通过法律,并通过服务员传递纸条的方式交流信息,每个执法者会将通过的法律记录在自己的账目(ledger)上。问题在于执法者和服务员都不可靠,他们随时会因为各种事情离开议会大厅,并随时可能有新的执法者进入议会大厅进行法律表决,使用何种方式能够使得这个表决过程正常进行,且通过的法律不发生矛盾。

 

3    语义定义

1)   角色

算法中的参与者主要分为三个角色,同时每个参与者又可兼领多个角色。

a)   Proposer

提案提出者。提出提案,提案信息包括提案编号和提议的value

b)   acceptor 

提案接受者。收到提案后可以接受提案。

c)   learner

提案学习者。只能"学习"被批准的提案,即获取被批准的提案。

 

2)   基本语义

决议(value)只有在被proposers提出后才能被批准,未经批准的决议称为"提案(proposal)"。

在一次Paxos算法的执行实例中,只批准(chosen)一个value。

learners只能获得被批准(chosen)的value。

3)   决议过程

通过一个决议分为两个阶段:Prepare阶段、Accepet阶段

a)   prepare阶段

当Porposer希望提出方案V1,首先发出prepare请求至大多数Acceptor。Prepare请求内容为序列号<SN1>;

当Acceptor接收到prepare请求<SN1>时,检查自身上次回复过的prepare请求<SN2>

l  如果SN2>SN1,则忽略此请求,直接结束本次批准过程;

l  否则检查上次批准的accept请求<SNx,Vx>,并且回复<SNx,Vx>;如果之前没有进行过批准,则简单回复<OK>;

b)   accept阶段

Porposer经过一段时间,收到一些Acceptor回复,回复可分为以下几种:

回复数量满足多数派,并且所有的回复都是<OK>,则Porposer发出accept请求,请求内容为议案<SN1,V1>;

回复数量满足多数派,但有的回复为:<SN2,V2>,<SN3,V3>……则Porposer找到所有回复中超过半数的那个,假设为<SNx,Vx>,则发出accept请求,请求内容为议案<SN1,Vx>;

回复数量不满足多数派,Proposer尝试增加序列号为SN1+,转1继续执行;

Acceptor在不违背自己向其他Proposer的承诺的前提下,Acceptor收到accept请求后即接受并回复这个请求。

 

4)   约束

根据上面的三个语义可演化为四个约束。(说明:P1表示prepare阶段;P2表示accept阶段).

a)   P1

一个acceptor必须接受(accept)第一次收到的提案;

b)   P2a

一旦一个value的提案被批准(chosen),那么之后任何acceptor再次接受的提案必须具有value。

c)   P2b

一旦一个value的提案被批准(chosen),那么以后任何proposer提出的提案必须具有value。

d)   P2c

如果一个编号为n的提案具有value v,那么存在一个多数派,要么他们中所有人都没有接受(accept)编号小于n的任何提案,要么他们已经接受(accept)的所有编号小于n的提案中编号最大的那个提案具有value v。

 

4    缺点与简化

a)   缺点

Paxos算法在出现竞争的情况下,其收敛速度很慢,甚至可能出现活锁的情况。例如当有三个及三个以上的proposer在发送prepare请求后,很难有一个proposer收到半数以上的回复,从而导致不断地执行第一阶段的协议。

b)   简化

为了避免竞争,加快收敛的速度,在算法中引入了一个Leader这个角色,在正常情况下同时应该最多只能有一个参与者扮演Leader角色,而其它的参与者则扮演Acceptor的角色,同时所有的人又都扮演Learner的角色。

Multi-Paxos协议是经典的Paxos协议的简化版本,有谷歌公司的工程师所提出。二者最大的差别是Multi-Paxos包含有leader节点而Paxos没有。像chubby、zookeeper、megastore、spanner等中间件都是使用Multi-Paxos。

Multi Paxos先运行一次完整的paxos算法选举出leader,有leader处理所有的写请求,然后省略掉prepare过程。并由这个Leader唯一地提交value给各Acceptor进行表决。

 

二  Zookeeper原理

1    角色

角色

描述

Leader

主要负责投票的发起和决议;系统状态更新

Learner

Follower

参与投票过程,写请求转发给leader;接收客户端连接

Observer

不参与投票过程,写请求转发给leader;接收客户端连接。增加系统扩展性、读性能。

Client

请求发起方

 

Leader将状态变化发送给follower和observer。写操作的吞吐率取决于仲裁数量的大小,更大的仲裁数量,将导致更小的写操作吞吐率。引入observer的一个主要原因是提高读请求的扩展性,Observer不参与投票过程,所以对于写操作没有开销,同时因为保持和leader同步,所以可以支持更多读请求。

 

2    集群结构

d311d08f71597f84fa47a41b1eb8e0fae8f2bc69 

3    特性

1)   最终一致性

client不论连接到哪个Server,展示给它都是同一个视图,这是zookeeper最重要的性能。

2)   可靠性

具有简单、健壮、良好的性能,如果消息m被到一台服务器接受,那么它将被所有的服务器接受。

3)   实时性

Zookeeper保证客户端将在一个时间间隔范围内获得服务器的更新信息,或者服务器失效的信息。但由于网络延时等原因,Zookeeper不能保证两个客户端能同时得到刚更新的数据,如果需要最新数据,应该在读数据之前调用sync()接口。

4)   等待无关(wait-free):

慢的或者失效的client不得干预快速的client的请求,使得每个client都能有效的等待。

5)   原子性

更新只能成功或者失败,没有中间状态。

6)   顺序性

包括全局有序和偏序两种:全局有序是指如果在一台服务器上消息a在消息b前发布,则在所有Server上消息a都将在消息b前被发布;偏序是指如果一个消息b在消息a后被同一个发送者发布,a必将排在b前面。

 

 

4    原子广播协议(ZAB)

Zookeeper通过ZAB保证多个server之间的数据同步。

Zab协议分为:恢复模式(选主)和广播模式(同步)。当服务启动或者在leader崩溃后,Zab就进入了恢复模式,当leader被选举出来,且大多数Server完成了和leader的状态同步以后,恢复模式就结束了,接下来就进入广播模式。

 

三  Zookeeper设计

本部分将简要介绍Zookeeper的实现原理,详细内容见其他博客。

1    QuorumPeer模型

2614aa41a06be8e49ba7093edf3e14631c4e033e

QuorumPeer是zookeeper server的核心,主要负责以下内容:

l   初始化状态时LOOKING,所以首先进行Leader选举,这其实算是加入集群的动作。

l   选Leader技术以后,确定出自己是follower或者leader;不同的角色分别执行不同的业务流程。

l   退出followLeader流程或lead流程时,状态会被置成LOOKING,即新一轮的循环再次开始。

 

2    leader选举

c6fda596fae77e9ef69d844987013946ab1d6925

此图是简化的选举流程,只是用来标明主要过程,详细流程参考博客。

选举过程其实是Paxos协议执行的过程,选主过程如下:

l   自增logicalclock(也称之为electionEpoch),更新提议的proposal(第一次是提议自己为leader)。

l   发送选票信息给集群的其他acceptor。

l   收集并统计acceptor的回复结果。这个过程首先解决electionEpoch、zxid、提议leader的冲突,原则上选择大者作为下次提议的信息。

l   从统计结果中判断是否已经选出leader;如果没有选出或者如果已经选出leader但在判断leader是否有效时发现leader无效,则继续重复“发(更新后的)选票信息给其他acceptor”步骤;否则说明leader已经选出,更新自己的状态,退出选举流程。

 

3    Lead流程

39f6474b47e1017d771b74e326be4bf3115f3c73

如图所示,leader主要负责以下内容:

l   为每一个follower、Observer创建LearnerHandler线程,处理于此服务器的所有交互。

l   确保收到超过半数服务器的acceptedEpoch,用于计算出集群新的epoch,否则退出lead流程。

l   确保超过半数的服务器的已经epoch更新事件,以保证整个集群多数派的epoch已经一致;否则退出lead流程。

l   确保超过半数的服务器已经和leader中已提交的数据同步了,以保证整个集群多数派处于一致状态,否则退出lead流程。

l   进入广播模式,接收请求,发出提议,统计并处理提议。

 

4    followLeader流程

901474d1a7b442b766e0e5d278397e43539a1fba

如图所示,follower主要负责以下内容:

l   连接leader。

l   告知leader自己之前的AcceptedEpoch,以便于leader计算新集群的epoch

l   告知leader自己已经更新了epoch,以便于leader确认集群多数派的epoch已经统一。

l   从leader同步已经提交的提议,保持自己与leader同步。

l   进入广播模式,转发写请求到leader,接收提议、回复提议,提交提议等。

 

5    Leader广播模式

923b5da8727370841899afc7eb4ca654a703d1a1

如上图所示,leader在广播模式下承担的职责主要包括:

l   接收写请求,然后将写请求作为提议发给acceptor(这里指的是follower)

l   接收follower对提议的回复信息,然后统计回复结果,发送commit给follower,通知observer提议已经committed。

l   接收心跳维护信息,延长与follower的session。

l   验证session有效性

 

6    follower广播模式

49159f3c71af4842fd0e61d4efde1e17661b62ce如上图所示,follower在广播模式下承担的职责主要包括:

l   接收leader的提议信息,回复leader。

l   接收leader的commit提议消息。

l   接收心跳维持信息,发送心跳给leader。

l   验证session有效性

l   接收sync消息,主动从leader同步消息,以保证客户端获取的信息时最新的。

 

 

 

 

四  Zookeeper请求的处理

Zookeeper在是现实使用的主要抽象概念是请求处理器,请求处理器是对不同阶段处理过程的一个抽象,每个服务器注册了一个不同的请求处理器序列。

1    请求模型

671eae9d2072c2a971c8946f234b3ec2329b2a9b

此图来自Zookeeper官网文档,表示请求过程。所有的写请求都通过ZAB协议保持集群数据一致性。

 

2    leader

1)   注册RequestProcessor链示例代码

a)   LeaderZooKeeperServer#setupRequestProcessors

    protected void setupRequestProcessors() {
        RequestProcessor finalProcessor= new FinalRequestProcessor(this);
        RequestProcessor toBeAppliedProcessor= new Leader.ToBeAppliedRequestProcessor(
               finalProcessor, getLeader().toBeApplied);
        commitProcessor = new CommitProcessor(toBeAppliedProcessor,
               Long.toString(getServerId()),false,
               getZooKeeperServerListener());
        commitProcessor.start();
        ProposalRequestProcessor proposalProcessor= new ProposalRequestProcessor(this,
               commitProcessor);
        proposalProcessor.initialize();
        firstProcessor = newPrepRequestProcessor(this, proposalProcessor);
        ((PrepRequestProcessor)firstProcessor).start();
    }
 
b)   ZooKeeperServer#setupRequestProcessors

    protected void setupRequestProcessors() {
        RequestProcessor finalProcessor= new FinalRequestProcessor(this);
        RequestProcessor syncProcessor= new SyncRequestProcessor(this,
               finalProcessor);
        ((SyncRequestProcessor)syncProcessor).start();
        firstProcessor = newPrepRequestProcessor(this, syncProcessor);
        ((PrepRequestProcessor)firstProcessor).start();
    }


 

2)   模型

fb6a765ea1b4eed2ad4b52b4cd39c54239e116b4

 

3)   分析

a)   PrepRequestProcessor

接受客户端的请求并执行这个请求。

b)   ProposalRequestProcessor

如果是LearnerSyncRequest,表明是leader做为server提供给客户端服务,并且接受到客户端的sync请求。

如果不是是LearnerSyncRequest,则认为是需要进行投票决策,所以将request发送给leader,接着会发送给所有的follower进行投票。注意:请求可能来自于follower转发给leader的写请求,也可能是leader收到client的写请求

通过SyncRequestProcessor写request持久化到本地磁盘。

示例代码如下:

   public voidprocessRequest(Request request) throws RequestProcessorException {
        /* In the followingIF-THEN-ELSE block, we process syncs on the leader. 
         * If the sync is coming from afollower, then the follower
         * handler adds it tosyncHandler. Otherwise, if it is a client of
         * the leader that issued thesync command, then syncHandler won't 
         * contain the handler. In thiscase, we add it to syncHandler, and 
         * call processRequest on thenext processor.
         */
       if(request instanceofLearnerSyncRequest){
           zks.getLeader().processSync((LearnerSyncRequest)request);
       } else {
               nextProcessor.processRequest(request);
           if (request.hdr != null) {
                // We needto sync and get consensus on any transactions
               try{
                   zks.getLeader().propose(request);
               } catch(XidRolloverException e) {
                   throw newRequestProcessorException(e.getMessage(), e);
               }
               syncProcessor.processRequest(request);
           }
       }
   }


 

c)   CommitProcessor

做为leader时,会在收集足够的Vote后,自己会给自己发送一次sync指令。

做为Follower时,会受到Leader发送的Sync指令,然后自己提交commit动作。

d)   Leader#ToBeAppliedRequestProcessor

记录当前正在提交到zkDatabase中的request数据,保证新的Follower连接上来时,能获取到这些处于内存中"正准备提交"的数据

e)   FinalRequestProcessor

处理最后的请求。如读/写请求,此时所有的server都会同步的写入数据。

f)   SyncRequestProcessor

负责把写request持久化到本地磁盘,为了提高写磁盘的效率,这里使用的是缓冲写,但是会周期性(1000个request)的调用flush操作,flush之后request已经确保写到磁盘了,这时会把请求传给AckRequestProcessor继续处理

g)   AckRequestProcessor

负责在SyncRequestProcessor完成事务日志记录后,向Proposal的投票收集器发送ACK反馈,以通知投票收集器当前服务器已经完成了对该Proposal的事务日志记录。

 

3    follower

1)   注册RequestProcessor链示例代码

a)   FollowerZooKeeperServer#setupRequestProcessors

    protected void setupRequestProcessors() {
        RequestProcessor finalProcessor= new FinalRequestProcessor(this);
        commitProcessor = newCommitProcessor(finalProcessor,
               Long.toString(getServerId()),true,
               getZooKeeperServerListener());
        commitProcessor.start();
        firstProcessor = newFollowerRequestProcessor(this, commitProcessor);
        ((FollowerRequestProcessor) firstProcessor).start();
        syncProcessor = newSyncRequestProcessor(this,
               newSendAckRequestProcessor((Learner)getFollower()));
        syncProcessor.start();
    }

 

2)   模型

4f43c124f1873864e3f92af9aded417fa605fb81

 

3)   分析

a)   FollowerRequestProcessor

 客户端接受请求后,针对一些写动作(如create,delete,setData,setAcl等),FollowerRequestProcessor会发起一个request,将写请求全部转发到leader,同时会将request请求递交到commitProcessor。

b)   CommitProcessor

见leader中的介绍

c)   FinalRequestProcessor

见leader中的介绍

d)   SyncRequestProcessor

见leader中的介绍

e)   SendAckRequestProcessor

为proposal发送一个ack给leader

 

五  博客

1    我的相关博客

恢复模式之Leader选举

https://yq.aliyun.com/articles/298075

恢复模式之数据同步

https://yq.aliyun.com/articles/304722

Zookeeper使用案例

https://yq.aliyun.com/articles/272103

 

2    本文参考内容

Paxos算法与Zookeeper分析

http://blog.csdn.net/xhh198781/article/details/10949697

Paxos 算法

https://baike.baidu.com/item/Paxos%20%E7%AE%97%E6%B3%95/10688635?fr=aladdin

 

 

相关实践学习
基于MSE实现微服务的全链路灰度
通过本场景的实验操作,您将了解并实现在线业务的微服务全链路灰度能力。
相关文章
|
7月前
|
监控 Dubbo Java
深入理解Zookeeper系列-2.Zookeeper基本使用和分布式锁原理
深入理解Zookeeper系列-2.Zookeeper基本使用和分布式锁原理
111 0
|
7月前
|
监控 Java 数据安全/隐私保护
ZooKeeper学习之内部原理
ZooKeeper学习之内部原理
77 0
|
7月前
|
消息中间件 分布式计算 算法
深入理解Zookeeper系列-3.Zookeeper实现原理及Leader选举源码分析(上)
深入理解Zookeeper系列-3.Zookeeper实现原理及Leader选举源码分析
597 0
|
存储 算法 Java
准备跳槽必看的这道【Java面试题】:谈谈你对Zookeeper 选举原理的理解
一位工作了 7 年的程序员,最近在面试时被问到一个关于Zookeeper的问题。因为平时很少研究,所以面试的时候只能一直说:不知道,不知道,不知道。当时,他感觉很尴尬,面试还没结束,就已经知道应该被Pass了。于是又来问我,希望我能分享一期这样的视频。
102 2
|
2月前
|
分布式计算 负载均衡 算法
Hadoop-31 ZooKeeper 内部原理 简述Leader选举 ZAB协议 一致性
Hadoop-31 ZooKeeper 内部原理 简述Leader选举 ZAB协议 一致性
30 1
|
2月前
|
分布式计算 监控 Hadoop
Hadoop-29 ZooKeeper集群 Watcher机制 工作原理 与 ZK基本命令 测试集群效果 3台公网云服务器
Hadoop-29 ZooKeeper集群 Watcher机制 工作原理 与 ZK基本命令 测试集群效果 3台公网云服务器
43 1
|
7月前
|
NoSQL 中间件 API
分布式锁【数据库乐观锁实现的分布式锁、Zookeeper分布式锁原理、Redis实现的分布式锁】(三)-全面详解(学习总结---从入门到深化)(下)
分布式锁【数据库乐观锁实现的分布式锁、Zookeeper分布式锁原理、Redis实现的分布式锁】(三)-全面详解(学习总结---从入门到深化)
174 2
|
7月前
|
NoSQL Java API
分布式锁【数据库乐观锁实现的分布式锁、Zookeeper分布式锁原理、Redis实现的分布式锁】(三)-全面详解(学习总结---从入门到深化)(上)
分布式锁【数据库乐观锁实现的分布式锁、Zookeeper分布式锁原理、Redis实现的分布式锁】(三)-全面详解(学习总结---从入门到深化)
172 0
|
负载均衡 算法 Java
分布式系列教程(10) -分布式协调工具Zookeeper(负载均衡原理实现)
分布式系列教程(10) -分布式协调工具Zookeeper(负载均衡原理实现)
123 0
|
7月前
|
网络协议 中间件 数据库
Zookeeper学习系列【三】Zookeeper 集群架构、读写机制以及一致性原理(ZAB协议)
Zookeeper学习系列【三】Zookeeper 集群架构、读写机制以及一致性原理(ZAB协议)
272 0