分布式锁原理与实现(数据库、redis、zookeeper)

简介: 分布式锁可以保证在分布式部署的应用集群中,同一个方法在同一时间只能被一台机器上的一个线程执行。

分布式锁


分布式锁可以保证在分布式部署的应用集群中,同一个方法在同一时间只能被一台机器上的一个线程执行。

分布式锁的实现方式有:

  1. 数据库实现分布式锁:原理简单,性能较差
  2. Redis分布式锁:性能最好
  3. Zookeeper分布式锁:可靠性最好



一、数据库实现分布式锁

数据库实现分布式锁的思路,最简单的方式可能就是直接创建一张锁表,然后通过操作该表中的数据来实现了。具体实现方式有多种:


当我们要锁住某个方法或资源的时候,就在该表中增加一条记录;想要释放锁的时候,就删除这条记录。

可以基于乐观锁实现。

也可以利用数据库自带的排它锁实现。

由于需要连数据库,适用于对性能要求不高的场景如集群环境下的定时任务等。


参考:《基于数据库的分布式锁实现》https://blog.csdn.net/lmb55/article/details/78495629


二、Redis实现分布式锁


Redis实现分布式锁的思路主要是,获取锁的时候在redis中存储一个特定的key-value,释放锁的时候删除这个key-value。具体实现有多种方式。


1、【setnx】命令实现分布式锁(set if not exist)


一般思路是先用setnx命令设置一个指定的key-value来获取锁(同一业务逻辑获取的分布式锁对应的key固定,value随意),释放的时候用del命令删除这个key-value。这样做可能出现一个问题,如果释放锁(del key)之前系统挂了,redis中的这个key-value会一直存在,也就是会造成死锁。


因此可以用expire命令来给这个key-value加一个有效期,过一段时间即使不删除也自动失效。但由于加锁的时候,setnx和expire是分成两步来执行的,并没有原子性,如果执行expire之前系统挂了,也无法释放锁,造成死锁。当然执行expire需要依赖setnx的执行结果,如果setnx执行不成功(没抢到锁),是不应该执行expire的,所以也无法用redis事务的方式来保证这两个命令的原子性(如果用事务,及时setnx执行失败,也会继续执行expire)。


最终方案:可以通过setnx+getset命令来完美实现redis分布式锁,这种方案可以避免死锁,主要思想就是如果持有锁的线程没有及时释放锁,其他线程可以帮它释放锁。具体做法是:

(1)申请锁的时候用setnx设置key-value,key值固定,value=当前时间戳+过期时间,申请成功则获取锁成功

(2)如果申请锁失败(说明setnx执行失败,redis中已经有对应key了),用getset方法获取之前的值,判断锁是否已过期,如果过期了,判断设置的value


如下是用spring-data-redis实现分布式锁的例子:


public boolean lock(String redisKey,long expireMsecs) {
    try {
        long currentLockValue = System.currentTimeMillis() + expireMsecs + 1;
        boolean lockResult = redisTemplate.opsForValue().setIfAbsent(redisKey, currentLockValue);
        //成功获取得锁
        if(lockResult) {
            return true;
        }
        //如果redisKey存在,但已达到过期时间,则重新进入争抢
        Long lockValue = (Long)this.getRedisTemplate().opsForValue().get(redisKey);  //2019年04月08日12:00:10|000
        long currentTimeMillis = System.currentTimeMillis();  //2019年04月08日12:00:00|100
        if(lockValue != null && lockValue < currentTimeMillis) {
            Long oldLockValue = (Long)redisTemplate.opsForValue().getAndSet(redisKey, currentLockValue);  //2019年04月08日12:00:10|000
            //确保set的时候,没有其它线程进行getset操作
            if(oldLockValue != null && oldLockValue.equals(lockValue)) { 
                return true;
            }
        }
    }catch (Exception e) {
        logException(bizAction, "exception", getLockKey(), e);
    }
    return false;
}
public boolean unLock(){
    redisTemplate.delete(getLockKey());
}

当锁过期重新进入争抢的时候,比如之前redis中存的时间value是5,现在时间currentLockValue是10,所以现在的锁过期了。这时线程A和线程B同时(在同一毫秒)争抢锁,线程A先执行getset,获取到的oldLockValue=5,同时把当前时间currentLockValue 10放到缓存中,线程2再执行getset时,获取到的oldLockValue=10,这时比较线程A获取到的oldLockValue和之前的lockValue值一样,就表示A获取到了锁。

111.png


这种方案还有个小问题就是,需要依赖每个服务器节点的时间,因此需要保证每个服务器的时间一致。


2、用【set key value [EX seconds] [PX milliseconds] [NX|XX]】命令实现分布式锁。


redis2.8之后,扩展了set命令的参数,可以直接执行用一个命令来原子执行set和expire。


3、用lua脚本实现redis分布式锁


4、Redlock算法


三、用Zookeeper实现分布式锁


Zookeeper锁原理:通过Zookeeper上的数据节点来标识一个锁,例如/curator/lock。Zookddper分布式锁与Redis分布式锁相比相比,实现的稳定性更强,这是因为zookeeper的特性所致,在外界看来,zookeeper集群中每一个节点都是一致的。


1、Zookeeper实现分布式锁


下面描述使用zookeeper实现分布式锁的算法流程,假设锁空间的根节点为/curator/lock:


客户端连接zookeeper,并在/lock下创建临时的且有序的子节点,第一个客户端对应的子节点为/curator/lock/lock-0000000000,第二个为/curator/lock/lock-0000000001,以此类推。

客户端获取/lock下的子节点列表,判断自己创建的子节点是否为当前子节点列表中序号最小的子节点,如果是则认为获得锁,否则监听/curator/lock的子节点变更消息,获得子节点变更通知后重复此步骤直至获得锁;

执行业务代码;

完成业务流程后,删除对应的子节点释放锁。

创建的临时节点能够保证在故障的情况下锁也能被释放,考虑这么个场景:假如客户端a当前创建的子节点为序号最小的节点,获得锁之后客户端所在机器宕机了,客户端没有主动删除子节点;如果创建的是永久的节点,那么这个锁永远不会释放,导致死锁;由于创建的是临时节点,客户端宕机后,过了一定时间zookeeper没有收到客户端的心跳包判断会话失效,将临时节点删除从而释放锁。


对于这个算法有个极大的优化点:假如当前有1000个节点在等待锁,如果获得锁的客户端释放锁时,这1000个客户端都会被唤醒,这种情况称为“羊群效应”;在这种羊群效应中,zookeeper需要通知1000个客户端,这会阻塞其他的操作,最好的情况应该只唤醒新的最小节点对应的客户端。应该怎么做呢?在设置事件监听时,每个客户端应该对刚好在它之前的子节点设置事件监听,例如子节点列表为/lock/lock-0000000000、/lock/lock-0000000001、/lock/lock-0000000002,序号为1的客户端监听序号为0的子节点删除消息,序号为2的监听序号为1的子节点删除消息。调整后的分布式锁算法为:


客户端连接zookeeper,并在/lock下创建临时的且有序的子节点,第一个客户端对应的子节点为/lock/lock-0000000000,第二个为/lock/lock-0000000001,以此类推;

客户端获取/lock下的子节点列表,判断自己创建的子节点是否为当前子节点列表中序号最小的子节点,如果是则认为获得锁,否则监听刚好在自己之前一位的子节点删除消息,获得子节点变更通知后重复此步骤直至获得锁;

执行业务代码;

完成业务流程后,删除对应的子节点释放锁。


113.png


如下是用Curator实现分布式锁的例子:

public class ZookeeperDistributeLock{
    private static String lockPath = "/curator/lock";
    private static CuratorFramework client = CuratorFrameworkFactory.builder()
            .connectString("33.101.98.109:2181")
            .retryPolicy(new ExponentialBackoffRetry(1000, 3))
            .build();
    public static void main(String[] args) throws Exception {
        client.start();
        final InterProcessMutex lock = new InterProcessMutex(client, lockPath);
        final CountDownLatch countDownLatch = new CountDownLatch(1);
        final SimpleDateFormat simpleDateFormat = new SimpleDateFormat("HH:mm:ss|SSS");
        for (int i = 1; i <= 50; i++) {
            final int finalI = i;
            new Thread(new Runnable() {
                @Override
                public void run() {
                    try {
                        countDownLatch.await();
                    } catch (InterruptedException e) {
                        e.printStackTrace();
                    }
                    try {
                        lock.acquire();
                    } catch (Exception e) {
                        e.printStackTrace();
                    }
                    String orderNo = simpleDateFormat.format(new Date());
                    try {
                        lock.release();
                    } catch (Exception e) {
                        e.printStackTrace();
                    }
                    System.out.println("生成的第" + (finalI) + "个订单号是:" + orderNo);
                }
            }).start();
        }
        System.out.println("1秒后开始并发生成订单号……");
        Thread.sleep(1000);
        countDownLatch.countDown();
    }
}

2、Zookeeper读写锁


也可以通过Zookeeper来获取分布式读写锁,在获取读写锁时,也是通过数据节点来表示一个锁。请求锁时,在锁节点(比如/lock)下创建格式为“/lock/类型-序号”的临时顺序节点,比如“R-0000001”、“W-0000002”、“R-0000003”:


114.png


获取读写锁流程分析:


在获取读锁时,客户端在/lock节点下创建/R-为前缀的临时顺序节点,比如“R-0000001”、“R-0000003”;在获取写锁时,客户端在/lock节点下创建/W-为前缀的临时顺序节点,比如“W-0000002”。

创建节点后,获取/lock下所有子节点,确定当前节点在所有子节点中的位置,并对最近的子节点设置Watcher监听。

对于读锁请求,如果没有比自己序号小的节点,或者所有比自己序号小的节点都是读请求,则成功获取到读锁,否则进入等待。

对于写请求,如果自己是序号最小的节点,则成功获取到写锁,否则进入等待。

Curator已经为我们实现了多种分布式锁:


InterProcessMutex:分布式可重入排它锁
InterProcessSemaphoreMutex:分布式排它锁
InterProcessReadWriteLock:分布式读写锁
InterProcessMultiLock:将多个锁作为单个实体管理的容器


总结


数据库分布式锁、Redis分布式锁、Zookeeper分布式锁的比较


1.理解的难易程度

数据库>Redis>Zookeeper

2.实现的复杂程度

Zookeeper>=Redis>数据库

3.性能高低

Redis>Zookeeper>数据库

4.可靠性

Zookeeper>Redis>数据库


相关文章
|
存储 缓存 NoSQL
Redis 服务器全方位介绍:从入门到核心原理
Redis是一款高性能内存键值数据库,支持字符串、哈希、列表等多种数据结构,广泛用于缓存、会话存储、排行榜及消息队列。其单线程事件循环架构保障高并发与低延迟,结合RDB和AOF持久化机制兼顾性能与数据安全。通过主从复制、哨兵及集群模式实现高可用与横向扩展,适用于现代应用的多样化场景。合理配置与优化可显著提升系统性能与稳定性。
574 0
|
6月前
|
存储 关系型数据库 分布式数据库
喜报|阿里云PolarDB数据库(分布式版)荣获国内首台(套)产品奖项
阿里云PolarDB数据库管理软件(分布式版)荣获「2024年度国内首版次软件」称号,并跻身《2024年度浙江省首台(套)推广应用典型案例》。
|
3月前
|
消息中间件 分布式计算 资源调度
《聊聊分布式》ZooKeeper与ZAB协议:分布式协调的核心引擎
ZooKeeper是一个开源的分布式协调服务,基于ZAB协议实现数据一致性,提供分布式锁、配置管理、领导者选举等核心功能,具有高可用、强一致和简单易用的特点,广泛应用于Kafka、Hadoop等大型分布式系统中。
|
10月前
|
Cloud Native 关系型数据库 分布式数据库
登顶TPC-C|云原生数据库PolarDB技术揭秘:Limitless集群和分布式扩展篇
阿里云PolarDB云原生数据库在TPC-C基准测试中以20.55亿tpmC的成绩刷新世界纪录,展现卓越性能与性价比。其轻量版满足国产化需求,兼具高性能与低成本,适用于多种场景,推动数据库技术革新与发展。
|
6月前
|
存储 NoSQL MongoDB
MongoDB数据库详解-针对大型分布式项目采用的原因以及基础原理和发展-卓伊凡|贝贝|莉莉
MongoDB数据库详解-针对大型分布式项目采用的原因以及基础原理和发展-卓伊凡|贝贝|莉莉
313 8
MongoDB数据库详解-针对大型分布式项目采用的原因以及基础原理和发展-卓伊凡|贝贝|莉莉
|
4月前
|
存储 缓存 监控
Redis分区的核心原理与应用实践
Redis分区通过将数据分散存储于多个节点,提升系统处理高并发与大规模数据的能力。本文详解分区原理、策略及应用实践,涵盖哈希、范围、一致性哈希等分片方式,分析其适用场景与性能优势,并探讨电商秒杀、物联网等典型用例,为构建高性能、可扩展的Redis集群提供参考。
274 0
|
9月前
|
Cloud Native 关系型数据库 分布式数据库
登顶TPC-C|云原生数据库PolarDB技术揭秘:Limitless集群和分布式扩展篇
云原生数据库PolarDB技术揭秘:Limitless集群和分布式扩展篇
|
9月前
|
SQL 存储 分布式数据库
分布式存储数据恢复—hbase和hive数据库数据恢复案例
分布式存储数据恢复环境: 16台某品牌R730xd服务器节点,每台服务器节点上有数台虚拟机。 虚拟机上部署Hbase和Hive数据库。 分布式存储故障: 数据库底层文件被误删除,数据库不能使用。要求恢复hbase和hive数据库。
329 12
|
11月前
|
消息中间件 缓存 NoSQL
Redis原理—5.性能和使用总结
本文详细探讨了Redis的阻塞原因、性能优化、缓存相关问题及数据库与缓存的一致性问题。同时还列举了不同缓存操作方案下的并发情况,帮助读者理解并选择合适的缓存管理策略。最终得出结论,在实际应用中应尽量采用“先更新数据库再删除缓存”的方案,并结合异步重试机制来保证数据的一致性和系统的高性能。
Redis原理—5.性能和使用总结
|
11月前
|
缓存 NoSQL Redis
Redis原理—2.单机数据库的实现
本文概述了Redis数据库的核心结构和操作机制。
Redis原理—2.单机数据库的实现