基于Zookeeper的分布式锁

本文涉及的产品
注册配置 MSE Nacos/ZooKeeper,118元/月
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
云原生网关 MSE Higress,422元/月
简介:

这篇文章只需要你10分钟的时间。

实现分布式锁目前有三种流行方案,分别为基于数据库、Redis、Zookeeper的方案,其中前两种方案网络上有很多资料可以参考,本文不做展开。我们来看下使用Zookeeper如何实现分布式锁。

什么是Zookeeper?

Zookeeper(业界简称zk)是一种提供配置管理、分布式协同以及命名的中心化服务,这些提供的功能都是分布式系统中非常底层且必不可少的基本功能,但是如果自己实现这些功能而且要达到高吞吐、低延迟同时还要保持一致性和可用性,实际上非常困难。因此zookeeper提供了这些功能,开发者在zookeeper之上构建自己的各种分布式系统。

虽然zookeeper的实现比较复杂,但是它提供的模型抽象却是非常简单的。Zookeeper提供一个多层级的节点命名空间(节点称为znode),每个节点都用一个以斜杠(/)分隔的路径表示,而且每个节点都有父节点(根节点除外),非常类似于文件系统。例如,/foo/doo这个表示一个znode,它的父节点为/foo,父父节点为/,而/为根节点没有父节点。与文件系统不同的是,这些节点都可以设置关联的数据,而文件系统中只有文件节点可以存放数据而目录节点不行。Zookeeper为了保证高吞吐和低延迟,在内存中维护了这个树状的目录结构,这种特性使得Zookeeper不能用于存放大量的数据,每个节点的存放数据上限为1M。

而为了保证高可用,zookeeper需要以集群形态来部署,这样只要集群中大部分机器是可用的(能够容忍一定的机器故障),那么zookeeper本身仍然是可用的。客户端在使用zookeeper时,需要知道集群机器列表,通过与集群中的某一台机器建立TCP连接来使用服务,客户端使用这个TCP链接来发送请求、获取结果、获取监听事件以及发送心跳包。如果这个连接异常断开了,客户端可以连接到另外的机器上。

架构简图如下所示:

基于Zookeeper的分布式锁

客户端的读请求可以被集群中的任意一台机器处理,如果读请求在节点上注册了监听器,这个监听器也是由所连接的zookeeper机器来处理。对于写请求,这些请求会同时发给其他zookeeper机器并且达成一致后,请求才会返回成功。因此,随着zookeeper的集群机器增多,读请求的吞吐会提高但是写请求的吞吐会下降。

有序性是zookeeper中非常重要的一个特性,所有的更新都是全局有序的,每个更新都有一个唯一的时间戳,这个时间戳称为zxid(Zookeeper Transaction Id)。而读请求只会相对于更新有序,也就是读请求的返回结果中会带有这个zookeeper最新的zxid。

如何使用zookeeper实现分布式锁?

在描述算法流程之前,先看下zookeeper中几个关于节点的有趣的性质:

  • 有序节点:假如当前有一个父节点为/lock,我们可以在这个父节点下面创建子节点;zookeeper提供了一个可选的有序特性,例如我们可以创建子节点“/lock/node-”并且指明有序,那么zookeeper在生成子节点时会根据当前的子节点数量自动添加整数序号,也就是说如果是第一个创建的子节点,那么生成的子节点为/lock/node-0000000000,下一个节点则为/lock/node-0000000001,依次类推。
  • 临时节点:客户端可以建立一个临时节点,在会话结束或者会话超时后,zookeeper会自动删除该节点。
  • 事件监听:在读取数据时,我们可以同时对节点设置事件监听,当节点数据或结构变化时,zookeeper会通知客户端。当前zookeeper有如下四种事件:1)节点创建;2)节点删除;3)节点数据修改;4)子节点变更。

下面描述使用zookeeper实现分布式锁的算法流程,假设锁空间的根节点为/lock:

  • 客户端连接zookeeper,并在/lock下创建 临时的 且 有序的 子节点,第一个客户端对应的子节点为/lock/lock-0000000000,第二个为/lock/lock-0000000001,以此类推。
  • 客户端获取/lock下的子节点列表,判断自己创建的子节点是否为当前子节点列表中 序号最小 的子节点,如果是则认为获得锁,否则监听/lock的子节点变更消息,获得子节点变更通知后重复此步骤直至获得锁;
  • 执行业务代码;
  • 完成业务流程后,删除对应的子节点释放锁。

步骤1中创建的临时节点能够保证在故障的情况下锁也能被释放,考虑这么个场景:假如客户端a当前创建的子节点为序号最小的节点,获得锁之后客户端所在机器宕机了,客户端没有主动删除子节点;如果创建的是永久的节点,那么这个锁永远不会释放,导致死锁;由于创建的是临时节点,客户端宕机后,过了一定时间zookeeper没有收到客户端的心跳包判断会话失效,将临时节点删除从而释放锁。

另外细心的朋友可能会想到,在步骤2中获取子节点列表与设置监听这两步操作的原子性问题,考虑这么个场景:客户端a对应子节点为/lock/lock-0000000000,客户端b对应子节点为/lock/lock-0000000001,客户端b获取子节点列表时发现自己不是序号最小的,但是在设置监听器前客户端a完成业务流程删除了子节点/lock/lock-0000000000,客户端b设置的监听器岂不是丢失了这个事件从而导致永远等待了?这个问题不存在的。因为zookeeper提供的API中设置监听器的操作与读操作是 原子执行 的,也就是说在读子节点列表时同时设置监听器,保证不会丢失事件。

最后,对于这个算法有个极大的优化点:假如当前有1000个节点在等待锁,如果获得锁的客户端释放锁时,这1000个客户端都会被唤醒,这种情况称为“羊群效应”;在这种羊群效应中,zookeeper需要通知1000个客户端,这会阻塞其他的操作,最好的情况应该只唤醒新的最小节点对应的客户端。应该怎么做呢?在设置事件监听时,每个客户端应该对刚好在它之前的子节点设置事件监听,例如子节点列表为/lock/lock-0000000000、/lock/lock-0000000001、/lock/lock-0000000002,序号为1的客户端监听序号为0的子节点删除消息,序号为2的监听序号为1的子节点删除消息。

所以调整后的分布式锁算法流程如下:

  • 客户端连接zookeeper,并在/lock下创建 临时的 且 有序的 子节点,第一个客户端对应的子节点为/lock/lock-0000000000,第二个为/lock/lock-0000000001,以此类推。
  • 客户端获取/lock下的子节点列表,判断自己创建的子节点是否为当前子节点列表中 序号最小 的子节点,如果是则认为获得锁,否则 监听刚好在自己之前一位的子节点删除消息 ,获得子节点变更通知后重复此步骤直至获得锁;
  • 执行业务代码;
  • 完成业务流程后,删除对应的子节点释放锁。

Curator的源码分析

虽然zookeeper原生客户端暴露的API已经非常简洁了,但是实现一个分布式锁还是比较麻烦的…我们可以直接使用 curator 这个开源项目提供的zookeeper分布式锁实现。

我们只需要引入下面这个包(基于maven):


 
 
  1. <dependency> 
  2.     <groupId>org.apache.curator</groupId> 
  3.     <artifactId>curator-recipes</artifactId> 
  4.     <version>4.0.0</version> 
  5. </dependency> 

然后就可以用啦!代码如下:


 
 
  1. public static void main(String[] args) throws Exception { 
  2.     //创建zookeeper的客户端 
  3.     RetryPolicy retryPolicy = new ExponentialBackoffRetry(1000, 3); 
  4.     CuratorFramework client = CuratorFrameworkFactory.newClient("10.21.41.181:2181,10.21.42.47:2181,10.21.49.252:2181", retryPolicy); 
  5.     client.start(); 
  6.  
  7.     //创建分布式锁, 锁空间的根节点路径为/curator/lock 
  8.     InterProcessMutex mutex = new InterProcessMutex(client, "/curator/lock"); 
  9.     mutex.acquire(); 
  10.     //获得了锁, 进行业务流程 
  11.     System.out.println("Enter mutex"); 
  12.     //完成业务流程, 释放锁 
  13.     mutex.release(); 
  14.      
  15.     //关闭客户端 
  16.     client.close(); 

可以看到关键的核心操作就只有mutex.acquire()和mutex.release(),简直太方便了!

下面来分析下获取锁的源码实现。acquire的方法如下:


 
 
  1. /* 
  2.  * 获取锁,当锁被占用时会阻塞等待,这个操作支持同线程的可重入(也就是重复获取锁),acquire的次数需要与release的次数相同。 
  3.  * @throws Exception ZK errors, connection interruptions 
  4.  */ 
  5. @Override 
  6. public void acquire() throws Exception 
  7.     if ( !internalLock(-1, null) ) 
  8.     { 
  9.         throw new IOException("Lost connection while trying to acquire lock: " + basePath); 
  10.     } 

这里有个地方需要注意,当与zookeeper通信存在异常时,acquire会直接抛出异常,需要使用者自身做重试策略。代码中调用了internalLock(-1, null),参数表明在锁被占用时永久阻塞等待。internalLock的代码如下:


 
 
  1. private boolean internalLock(long time, TimeUnit unit) throws Exception 
  2.  
  3.     //这里处理同线程的可重入性,如果已经获得锁,那么只是在对应的数据结构中增加acquire的次数统计,直接返回成功 
  4.     Thread currentThread = Thread.currentThread(); 
  5.     LockData lockData = threadData.get(currentThread); 
  6.     if ( lockData != null ) 
  7.     { 
  8.         // re-entering 
  9.         lockData.lockCount.incrementAndGet(); 
  10.         return true
  11.     } 
  12.  
  13.     //这里才真正去zookeeper中获取锁 
  14.     String lockPath = internals.attemptLock(time, unit, getLockNodeBytes()); 
  15.     if ( lockPath != null ) 
  16.     { 
  17.         //获得锁之后,记录当前的线程获得锁的信息,在重入时只需在LockData中增加次数统计即可 
  18.         LockData newLockData = new LockData(currentThread, lockPath); 
  19.         threadData.put(currentThread, newLockData); 
  20.         return true
  21.     } 
  22.  
  23.     //在阻塞返回时仍然获取不到锁,这里上下文的处理隐含的意思为zookeeper通信异常 
  24.     return false

代码中增加了具体注释,不做展开。看下zookeeper获取锁的具体实现:


 
 
  1. String attemptLock(long time, TimeUnit unit, byte[] lockNodeBytes) throws Exception 
  2.     //参数初始化,此处省略 
  3.     //... 
  4.     
  5.     //自旋获取锁 
  6.     while ( !isDone ) 
  7.     { 
  8.         isDone = true
  9.  
  10.         try 
  11.         { 
  12.             //在锁空间下创建临时且有序的子节点 
  13.             ourPath = driver.createsTheLock(client, path, localLockNodeBytes); 
  14.             //判断是否获得锁(子节点序号最小),获得锁则直接返回,否则阻塞等待前一个子节点删除通知 
  15.             hasTheLock = internalLockLoop(startMillis, millisToWait, ourPath); 
  16.         } 
  17.         catch ( KeeperException.NoNodeException e ) 
  18.         { 
  19.             //对于NoNodeException,代码中确保了只有发生session过期才会在这里抛出NoNodeException,因此这里根据重试策略进行重试 
  20.             if ( client.getZookeeperClient().getRetryPolicy().allowRetry(retryCount++, System.currentTimeMillis() - startMillis, RetryLoop.getDefaultRetrySleeper()) ) 
  21.             { 
  22.                 isDone = false
  23.             } 
  24.             else 
  25.             { 
  26.                 throw e; 
  27.             } 
  28.         } 
  29.     } 
  30.  
  31.     //如果获得锁则返回该子节点的路径 
  32.     if ( hasTheLock ) 
  33.     { 
  34.         return ourPath; 
  35.     } 
  36.  
  37.     return null

上面代码中主要有两步操作:

  • driver.createsTheLock:创建临时且有序的子节点,里面实现比较简单不做展开,主要关注几种节点的模式:1)PERSISTENT(永久);2)PERSISTENT_SEQUENTIAL(永久且有序);3)EPHEMERAL(临时);4)EPHEMERAL_SEQUENTIAL(临时且有序)。
  • internalLockLoop:阻塞等待直到获得锁。

看下internalLockLoop是怎么判断锁以及阻塞等待的,这里删除了一些无关代码,只保留主流程:


 
 
  1. //自旋直至获得锁 
  2. while ( (client.getState() == CuratorFrameworkState.STARTED) && !haveTheLock ) 
  3.     //获取所有的子节点列表,并且按序号从小到大排序 
  4.     List<String>        children = getSortedChildren(); 
  5.      
  6.     //根据序号判断当前子节点是否为最小子节点 
  7.     String              sequenceNodeName = ourPath.substring(basePath.length() + 1); // +1 to include the slash 
  8.     PredicateResults    predicateResults = driver.getsTheLock(client, children, sequenceNodeName, maxLeases); 
  9.     if ( predicateResults.getsTheLock() ) 
  10.     { 
  11.         //如果为最小子节点则认为获得锁 
  12.         haveTheLock = true
  13.     } 
  14.     else 
  15.     { 
  16.         //否则获取前一个子节点 
  17.         String  previousSequencePath = basePath + "/" + predicateResults.getPathToWatch(); 
  18.  
  19.         //这里使用对象监视器做线程同步,当获取不到锁时监听前一个子节点删除消息并且进行wait(),当前一个子节点删除(也就是锁释放)时,回调会通过notifyAll唤醒此线程,此线程继续自旋判断是否获得锁 
  20.         synchronized(this) 
  21.         { 
  22.             try  
  23.             { 
  24.                 //这里使用getData()接口而不是checkExists()是因为,如果前一个子节点已经被删除了那么会抛出异常而且不会设置事件监听器,而checkExists虽然也可以获取到节点是否存在的信息但是同时设置了监听器,这个监听器其实永远不会触发,对于zookeeper来说属于资源泄露 
  25.                 client.getData().usingWatcher(watcher).forPath(previousSequencePath); 
  26.  
  27.                 //如果设置了阻塞等待的时间 
  28.                 if ( millisToWait != null ) 
  29.                 { 
  30.                     millisToWait -= (System.currentTimeMillis() - startMillis); 
  31.                     startMillis = System.currentTimeMillis(); 
  32.                     if ( millisToWait <= 0 ) 
  33.                     { 
  34.                         doDelete = true;    // 等待时间到达,删除对应的子节点 
  35.                         break; 
  36.                     } 
  37.                      
  38.                     //等待相应的时间 
  39.                     wait(millisToWait); 
  40.                 } 
  41.                 else 
  42.                 { 
  43.                    //永远等待 
  44.                     wait(); 
  45.                 } 
  46.             } 
  47.             catch ( KeeperException.NoNodeException e )  
  48.             { 
  49.                 //上面使用getData来设置监听器时,如果前一个子节点已经被删除那么会抛出NoNodeException,只需要自旋一次即可,无需额外处理 
  50.             } 
  51.         } 
  52.     } 

具体逻辑见注释,不再赘述。代码中设置的事件监听器,在事件发生回调时只是简单的notifyAll唤醒当前线程以重新自旋判断,比较简单不再展开。

以上。   


原文发布时间为:2017-10-24

本文作者:佚名

本文来自云栖社区合作伙伴“51CTO”,了解相关信息可以关注。

相关实践学习
基于MSE实现微服务的全链路灰度
通过本场景的实验操作,您将了解并实现在线业务的微服务全链路灰度能力。
相关文章
|
3月前
|
安全 应用服务中间件 API
微服务分布式系统架构之zookeeper与dubbo-2
微服务分布式系统架构之zookeeper与dubbo-2
|
3月前
|
负载均衡 Java 应用服务中间件
微服务分布式系统架构之zookeeper与dubbor-1
微服务分布式系统架构之zookeeper与dubbor-1
|
14天前
|
存储 运维 NoSQL
分布式读写锁的奥义:上古世代 ZooKeeper 的进击
本文作者将介绍女娲对社区 ZooKeeper 在分布式读写锁实践细节上的思考,希望帮助大家理解分布式读写锁背后的原理。
|
2月前
|
分布式计算 NoSQL Java
Hadoop-32 ZooKeeper 分布式锁问题 分布式锁Java实现 附带案例和实现思路代码
Hadoop-32 ZooKeeper 分布式锁问题 分布式锁Java实现 附带案例和实现思路代码
48 2
|
2月前
|
分布式计算 Hadoop
Hadoop-27 ZooKeeper集群 集群配置启动 3台云服务器 myid集群 zoo.cfg多节点配置 分布式协调框架 Leader Follower Observer
Hadoop-27 ZooKeeper集群 集群配置启动 3台云服务器 myid集群 zoo.cfg多节点配置 分布式协调框架 Leader Follower Observer
50 1
|
3月前
分布式-Zookeeper-数据订阅
分布式-Zookeeper-数据订阅
|
2月前
|
存储 SQL 消息中间件
Hadoop-26 ZooKeeper集群 3台云服务器 基础概念简介与环境的配置使用 架构组成 分布式协调框架 Leader Follower Observer
Hadoop-26 ZooKeeper集群 3台云服务器 基础概念简介与环境的配置使用 架构组成 分布式协调框架 Leader Follower Observer
51 0
|
3月前
|
Java
分布式-Zookeeper-分布式锁
分布式-Zookeeper-分布式锁
|
3月前
|
存储 负载均衡 算法
分布式-Zookeeper-Master选举
分布式-Zookeeper-Master选举
|
3月前
|
存储 负载均衡 Dubbo
分布式-Zookeeper(一)
分布式-Zookeeper(一)