分布式系统面试全集通第一篇(dubbo+redis+zookeeper----分布式+CAP+BASE+分布式事务+分布式锁)

本文涉及的产品
Redis 开源版,标准版 2GB
推荐场景:
搭建游戏排行榜
云数据库 Tair(兼容Redis),内存型 2GB
云原生网关 MSE Higress,422元/月
简介: 分布式系统面试全集通第一篇(dubbo+redis+zookeeper----分布式+CAP+BASE+分布式事务+分布式锁)

分布式系统面试全集通第一篇

什么是分布式?和微服务的区别

什么是分布式

  • 一个系统各组件分别部署在不同服务器。彼此通过网络通信和协调的系统。
  • 也可以指多个不同组件分布在网络上互相协作,比如说电商网站
  • 也可以一个组件的多个副本组成集群,互相协作如同一个组件,比如数据存储服务中为了数据不丢失而采取的多个服务备份冗余,当数据修改时也需要通信来复制数据
  • 分布式最早出现的目地首先是解决单点问题,避免单点故障,然后解决了性能问题

分布式与微服务的区别

分布式和微服的架构很相似,只是部署的方式不一样而已。

  • 分布式服务架构与微服务架构概念的区别与联系:
  • 分布式:分散压力。
    不同模块部署在不同服务器上;
    作用:分布式解决网站高并发带来问题;
    集群:相同的服务;
    多台服务器部署相同应用构成一个集群;
    作用:通过负载均衡设备共同对外提供服务;
    业务系统分解为多个组件,让每个组件都独立提供离散,自治,可复用的服务能力;
    通过服务的组合和编排来实现上层的业务流程;
    作用:简化维护,降低整体风险,伸缩灵活;
  • 微服务:分散能力。
    微服务[找到服务/微服务网关open API];
    架构设计概念:各服务间隔离(分布式也是隔离),自治(分布式依赖整体组合),其它特性(单一职责,边界,异步通信,独立部署)
    是分布式概念更加严格的执行;
    SOA到微服务架构的演进过程;
    作用:各服务可独立应用,组合服务也可系统应用(巨石应用[monolith]的简化实现策略-平台思想).
  • 明确一个问题:分布式主要针对是部署方式,微服务则是将应用才分的一种应用架构

什么是CAP?为什么不能三者同时拥有

在设计一个分布式项目的时候会遇到三个特性:

  • 一致性(consistency)
  • 可用性(Availability)
  • 分区容错(partition-tolerance)都需要的情景
    输入/唤起更
    CAP定律说的是在一个分布式计算机系统中,一致性,可用性和分区容错性这三种保证无法同时得到满足,最多满足两个。

分区容错性

  • 分区容错性指“the system continues to operate despite arbitrary message loss or failure of part of the system即分布式系统在遇到某节点或网络分区故障的时候,仍然能够对外提供服务。
  • 分布式系统中,尽管部分节点出现任何消息丢失或者故障,系统应继续运行
  • 通常分布式系统的各各结点部署在不同的子网,这就是网络分区,不可避免的会出现由于网络问题而导致结点之间通信失败,此时仍可对外提供服务。

一致性

  • 一致性指"all nodes see the same data at the same即更新操作成功并返回客户端time完成后,所有节点在同时间的数据完全一致。
  • 一旦数据更新完成并成功返回客户端后,那么分布式系统中所有节点在同一时间的数据完全一致。
  • 一致性是指写操作后的读操作可以读取到最新的数据状态,当数据分布在多个节点上,从任意结点读取到的数据都是最新的状态。

可用性

  • 可用性指即服务一直可用,而且是正常响应时间。“Reads and writes always succeed”
    对于可用性的衡量标准如下:

Base理论了解吗

BASE(Basically Available、Soft state、Eventual consistency)是基于CAP理论逐步演化而来的,核心思想是即便不能达到强一致性(Strong consistency),也可以根据应用特点采用适当的方式来达到最终致性(Eventual consistency)的效果。

基本可用

基本可用本质是一种妥协,也就是出现节点故障或者系统过载时,通过牺牲非核心功能的可用性,保障核心功能的稳定运行。

实现基本可用的几个策略:

  • 1、流量削峰(不同地区售票时间错峰出售)
    以订票系统设计为例,在春运期间,开始售票前后会出现及其海量的请求峰值。
    可以在不同的时间,出售不同区域的票,将访问请求错开,削弱请求峰值。
  • 2、延迟响应,异步处理(买票排队,基于队列先收到用户买票请求,排队异步处理,延迟响应)还以订票系统为例。用户提交购票请求后,往往会在队列中排队等待处理,可能几分钟或十几分钟后,系统才开始处理,然后响应处理结果。
  • 3、体验降级(看到非实时数据,采用缓存数据提供服务)以互联网系统为例,若出现网络热点事件,产生了海量的突发流量,系统过载,大量图片因为网络超时无法显示那么可以用小图片代替原始图片,降低图片的清晰度和大小,提升系统处理能力。
  • 4、过载保护熔断/限流,直接拒绝掉一部分请求,或者当请求队列满了,移除一部分请求,保证整体系统可用)把接收到的请求放在指定的队列中排队处理,如果请求等待时间超时,这时直接拒绝超时请求;如果队列满了之后,就清除队列中一定数量的排队请求,保护系统不过载,实现系统基本可用。
  • 5、故障隔离(出现故障,做到故障隔离,避免影响其他服务)

软状态

软状态(弱状态)->允许系统中的数据存在中间状态,并认为该状态不影响系统的整体可用性,即允许系统在多个不同节点的数据副本存在数据延迟。

最终一致性

上面说软状态,然后不可能一直是软状态,必须有个时间期限。在期限过后,应当保证所有副本保持数据一致性

从而达到数据的最终一致性。这个时间期限取决于网络延时,系统负载,数据复制方案设计等等因素。

什么是分布式事务

分布式事务是相对本地事务而言的,对于本地事务,利用数据库本身的事务机制,就可以保证事务的ACID

特性。

分布式事务有哪些常见的实现方案?

到现在,分布式事务已经有很多的解决方案了,有2PC、3PC、TCC,这一篇博客,我们先来分别讲讲最早的2PC、3PC这两种解决方案的模型及理论基础,以后再丰富其他的分布式事务解决方案。

2PC(Two Phase Commit)

第一阶段:执行事务操作

  • 事务询问。
    协调者节点向所有参与者节点询问是否可以执行提交操作,并开始等待各参与者节点的响应。
  • 执行事务。
    参与者节点执行询问发起的所有事务操作,并将Undo信息和Redo信息写入数据库日志。(若操作成功,这里其实每个参与者已经执行了事务操作)
  • 各参与者向协调者反馈事务询问的响应。
    各参与者节点响应协调者节点发起的询问。如果参与者节点的事务操作实际执行成功,则反馈一个“同意”消息;如果执行失败,则反馈一个“中止”消息。

    第二阶段:执行事务提交

当所有参与者节点在第一阶段向协调者节点反馈的消息全都是“同意”时:

  • 发送事务提交请求
    协调者节点向所有参与者节点发出“正式提交(commit)”请求。
  • 事务正式提交
    参与者节点正式完成提交操作,并释放在整个事务期间占用的资源。
  • 反馈事务提交结果
    参与者节点向协调者节点发送“完成”消息。
  • 完成事务
    协调者节点收到所有参与者节点反馈的“完成”消息后,完成分布式事务。
    当任一参与者节点在第一阶段反馈的响应为“中止”,或者协调者在第一阶段接收反馈信息超时:

发送事务回滚请求

协调者节点向所有参与者节点发出“回滚操作(rollback)”请求。

  • 事务回滚
    各参与者节点收到请求,利用之前写入的Undo信息执行本地事务回滚操作,并释放在整个事务期间占用的资源。
  • 反馈事务回滚结果
    参与者节点向协调者节点发送“回滚完成”消息。
  • 中断事务
    协调者节点收到所有参与者节点反馈的“回滚完成”消息后,取消事务。

3PC(Three Phase Commit)

3PC没有解决2PC所有问题,只是降低了灾难的发生概率。只是在2PC基础上,多一个询问

TCC(Try Commit Cancel)

这个模型有两个个阶段,但是与2PC的三个阶段又有所不同。

第一阶段:执行Try操作

  • 事务发起。
    协调者节点向所有参与者节点发起执行业务逻辑包含数据操作的命令,并开始等待各参与者节点的响应。
  • 执行数据操作。
    直接对数据库的数据执行操作。
  • 各参与者向协调者反馈执行操作的响应。
    各参与者节点响应协调者节点发起的数据操作。如果参与者节点的数据操作实际执行成功,则反馈一个“同意”消息;如果有一个参与者执行失败,则反馈一个“中止”消息。

    第二阶段:执行Confirm/Cancel操作
    根据阶段一各事务参与者的响应,如果所有事务参与者在阶段一执行成功,那就执行Confirm操作,有一个事务参与者在阶段一执行失败,就执行Cancel操作,进行数据库数据恢复。
    Confirm 操作用于执行数据操作成功之后的业务逻辑。
    Cancel 操作用于恢复阶段一对数据的操作。

2PC、3PC、TCC区别

1.在2PC的第一阶段基础之上,3PC新加了一个准备阶段(上图所示),用于询问所有参与者节点是否已经准备好要进行分布式事务操作了,这一阶段没有对资源的占用,只是测试数据库是否能获取锁即可,只是保证所有参与者都有能力参与事务,如果有网络或者其他问题就不用进行第二、三阶段了。

2. 在3PC的所有阶段,都为所有参与者节点和协调者节点添加了超时机制,防止因某一节点宕机造成的资源无法释放问题。

3. 2PC中所有阶段,只对协调者节点添加了超时机制。

4. TCC模型主要是在应用层做的一个分布式事务,2PC和3PC则是在数据库层做的分布式事务。

5。 TCC模型可以用于不支持事务的数据库,但是2PC和3PC要求数据库必须支持事务。

2PC存在问题

2PC只对协调者节点添加了超时机制,如果协调者这一重要角色宕机,所有参与者的资源就会一直得不到释放,降低系统的可用性。

2PC中,当其中任一节点宕机情况出现时,不能保证数据的最终一致性。

TCC存在问题

代码编写难度高

每个参与者的业务都要写try、confirm、cancel三个操作,并且各个操作的业务都有所不同

为满足一致性,要满足try、canfirm、cancel三个操作的幂等。

对于幂等性,可参考文章【分布式事务讲解 - Seata分布式事务框架(AT、TCC两种模式)】

TCC的优点

TCC的优点全是因为实现了应用层的分布式事务,优点如下:

可以降低数据库锁冲突,提高吞吐量。

可以通过应用控制数据库锁的粒度,而不用像2PC和3PC使数据库阻塞等待。

可以通过部署集群解决单点故障。

对比2PC,3PC有什么优点

为所有参与者节点和协调者节点添加了超时机制:

1)如果协调者等待参与者反馈信息超时,直接给所有参与者发送中断分布式事务请求。

2)如果在第三阶段任一参与者等待协调者提交事务信息超时,那就默认提交事务

添加超时机制,可以防止因某一节点宕机造成的资源无法释放问题以及资源占用时间过长问题。

在第一阶段,不锁定资源,就好像在Synchronized外面加了个if条件,能降低分布式事务执行失败率。

有哪些分布式锁的实现方案?

一、 分布式锁场景

般需要使用分布式锁的场景如下:

效率:使用分布式锁可以避免不同节点重复相同的工作,比如避免重复执行定时任务等;正确性:使用分布式锁同样可以避免破坏数据正确性,如果两个节点在同一条数据上面操作,可能会出现并发问题。

二、分布式锁特点

一个完善的分布式锁需要满足以下特点:

·互斥性:互斥是所得基本特性,分布式锁需要按需求保证线程或节点级别的互斥。·可重入性:同一个节点或同一个线程获取锁,可以再次重入获取这个锁;

·锁超时:支持锁超时释放,防止某个节点不可用后,持有的锁无法释放;

高效性:加锁和解锁的效率高,可以支持高并发

·高可用:需要有高可用机制预防锁服务不可用的情况,如增加降级;

阻塞性:支持阻塞获取锁和非阻塞获取锁两种方式;

·公平性:支持公平锁和非公平锁两种类型的锁,公平锁可以保证安装请求锁的顺序获取锁,而非公平锁

基于缓存实现分布式锁,以Redis为例

加锁

public class RedisTool {
    private static final String LOCK_SUCCESS = "OK";
    private static final String SET_IF_NOT_EXIST = "NX";
    private static final String SET_WITH_EXPIRE_TIME = "PX";
    /**
     * 加锁
     * @param stringRedisTemplate Redis客户端
     * @param lockKey 锁的key
     * @param requestId 竞争者id
     * @param expireTime 锁超时时间,超时之后锁自动释放
     * @return 
     */
    public static boolean getDistributedLock(StringRedisTemplate stringRedisTemplate, String lockKey, String requestId, int expireTime) {
        return stringRedisTemplate.opsForValue().setIfAbsent(lockKey, requestId, 30, TimeUnit.SECONDS);
    }
}

这个setIfAbsent()方法一共五个形参:

第一个为key,我们使用key来当锁,因为key是唯一的。

第二个为value,这里写的是锁竞争者的id,在解锁时,我们需要判断当前解锁的竞争者id是否为锁持有者。

第三个为expx,这个参数我们传的是PX,意思是我们要给这个key加一个过期时间的设置,具体时间由第五个参数决定;

第四个参数为time,与第四个参数相呼应,代表key的过期时间。

总的来说,执行上面的setIfAbsent()方法就只会导致两种结果:

1.当前没有锁(key不存在),那么就进行加锁操作,并对锁设置一个有效期,同时value表示加锁的客户端。

2.已经有锁存在,不做任何操作。上述解锁请求中,缓存超时机制保证了即使一个竞争者加锁之后挂了,也不会产生死锁问题:超时之后其他竞争者依然可以获取锁。通过设置value为竞争者的id,保证了只有锁的持有者才能来解锁,否则任何竞争者都能解锁,那岂不是乱套了。

解锁

public class RedisTool {
    private static final Long RELEASE_SUCCESS = 1L;
    /**
     * 释放分布式锁
     * @param stringRedisTemplate Redis客户端
     * @param lockKey 锁
     * @param requestId 锁持有者id
     * @return 是否释放成功
     */
    public static boolean releaseDistributedLock(StringRedisTemplate stringRedisTemplate, String lockKey, String requestId) {
        String script = "if redis.call('get', KEYS[1]) == ARGV[1] then return redis.call('del', KEYS[1]) else return 0 end";
        Long result = stringRedisTemplate.execute(new DefaultRedisScript<Long>(script, Long.class), Collections.singletonList(lockKey), requestId);
        return RELEASE_SUCCESS.equals(result);
    }
}

解锁的步骤:

1、判断当前解锁的竞争者id是否为锁的持有者,如果不是直接返回失败,如果是则进入第2步。

2、删除key,如果删除成功,返回解锁成功,否则解锁失败。

注意到这里解锁其实是分为2个步骤,涉及到解锁操作的一个原子性操作问题。这也是为什么我们解锁的时候用Lua脚本来实现,因为Lua脚本可以保证操作的原子性。那么这里为什么需要保证这两个步骤的操作是原子操作呢?

设想:假设当前锁的持有者是竞争者1,竞争者1来解锁,成功执行第1步,判断自己就是锁持有者,这是还未执行第2步。这是锁过期了,然后竞争者2对这个key进行了加锁。加锁完成后,竞争者1又来执行第2步,此时错误产生了:竞争者1解锁了不属于自己持有的锁。可能会有人问为什么竞争者1执行完第1步之后突然停止了呢?这个问题其实很好回答,例如竞争者1所在的JVM发生了GC停顿,导致竞争者1的线程停顿。这样的情况发生的概率很低,但是请记住即使只有万分之一的概率,在线上环境中完全可能发生。因此必须保证这两个步骤的操作是原子操作。

分析

是否可重入:以上实现的锁是不可重入的,如果需要实现可重入,在SET_IF_NOT_EXIST之后,再判断key对应的value是否为当前竞争者id,如果是返回加锁成功,否则失败。

锁释放时机:加锁时我们设置了key的超时,当超时后,如果还未解锁,则自动删除key达到解锁的目的。如果一个竞争者获取锁之后挂了,我们的锁服务最多也就在超时时间的这段时间之内不可用。

Redis单点问题:如果需要保证锁服务的高可用,可以对Redis做高可用方案:Redis集群+主从切换。目前都有比较成熟的解决方案。

感谢阅读

感谢您阅读本篇分布式系统面试博客分享!如果您有任何问题或建议,请随时在评论中告诉我们。谢谢!

相关实践学习
基于Redis实现在线游戏积分排行榜
本场景将介绍如何基于Redis数据库实现在线游戏中的游戏玩家积分排行榜功能。
云数据库 Redis 版使用教程
云数据库Redis版是兼容Redis协议标准的、提供持久化的内存数据库服务,基于高可靠双机热备架构及可无缝扩展的集群架构,满足高读写性能场景及容量需弹性变配的业务需求。 产品详情:https://www.aliyun.com/product/kvstore &nbsp; &nbsp; ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库&nbsp;ECS 实例和一台目标数据库&nbsp;RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&amp;RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
相关文章
|
2月前
|
安全 应用服务中间件 API
微服务分布式系统架构之zookeeper与dubbo-2
微服务分布式系统架构之zookeeper与dubbo-2
|
26天前
|
消息中间件 架构师 Java
阿里面试:秒杀的分布式事务, 是如何设计的?
在40岁老架构师尼恩的读者交流群中,近期有小伙伴在面试阿里、滴滴、极兔等一线互联网企业时,遇到了许多关于分布式事务的重要面试题。为了帮助大家更好地应对这些面试题,尼恩进行了系统化的梳理,详细介绍了Seata和RocketMQ事务消息的结合,以及如何实现强弱结合型事务。文章还提供了分布式事务的标准面试答案,并推荐了《尼恩Java面试宝典PDF》等资源,帮助大家在面试中脱颖而出。
|
1月前
|
分布式计算 NoSQL Java
Hadoop-32 ZooKeeper 分布式锁问题 分布式锁Java实现 附带案例和实现思路代码
Hadoop-32 ZooKeeper 分布式锁问题 分布式锁Java实现 附带案例和实现思路代码
43 2
|
1月前
|
分布式计算 Hadoop
Hadoop-27 ZooKeeper集群 集群配置启动 3台云服务器 myid集群 zoo.cfg多节点配置 分布式协调框架 Leader Follower Observer
Hadoop-27 ZooKeeper集群 集群配置启动 3台云服务器 myid集群 zoo.cfg多节点配置 分布式协调框架 Leader Follower Observer
45 1
|
1月前
|
存储 SQL 消息中间件
Hadoop-26 ZooKeeper集群 3台云服务器 基础概念简介与环境的配置使用 架构组成 分布式协调框架 Leader Follower Observer
Hadoop-26 ZooKeeper集群 3台云服务器 基础概念简介与环境的配置使用 架构组成 分布式协调框架 Leader Follower Observer
47 0
|
1月前
|
存储 缓存 NoSQL
数据的存储--Redis缓存存储(一)
数据的存储--Redis缓存存储(一)
|
1月前
|
存储 缓存 NoSQL
数据的存储--Redis缓存存储(二)
数据的存储--Redis缓存存储(二)
数据的存储--Redis缓存存储(二)
|
1月前
|
消息中间件 缓存 NoSQL
Redis 是一个高性能的键值对存储系统,常用于缓存、消息队列和会话管理等场景。
【10月更文挑战第4天】Redis 是一个高性能的键值对存储系统,常用于缓存、消息队列和会话管理等场景。随着数据增长,有时需要将 Redis 数据导出以进行分析、备份或迁移。本文详细介绍几种导出方法:1)使用 Redis 命令与重定向;2)利用 Redis 的 RDB 和 AOF 持久化功能;3)借助第三方工具如 `redis-dump`。每种方法均附有示例代码,帮助你轻松完成数据导出任务。无论数据量大小,总有一款适合你。
74 6
|
6天前
|
缓存 NoSQL 关系型数据库
大厂面试高频:如何解决Redis缓存雪崩、缓存穿透、缓存并发等5大难题
本文详解缓存雪崩、缓存穿透、缓存并发及缓存预热等问题,提供高可用解决方案,帮助你在大厂面试和实际工作中应对这些常见并发场景。关注【mikechen的互联网架构】,10年+BAT架构经验倾囊相授。
大厂面试高频:如何解决Redis缓存雪崩、缓存穿透、缓存并发等5大难题
|
7天前
|
存储 缓存 NoSQL
【赵渝强老师】基于Redis的旁路缓存架构
本文介绍了引入缓存后的系统架构,通过缓存可以提升访问性能、降低网络拥堵、减轻服务负载和增强可扩展性。文中提供了相关图片和视频讲解,并讨论了数据库读写分离、分库分表等方法来减轻数据库压力。同时,文章也指出了缓存可能带来的复杂度增加、成本提高和数据一致性问题。
【赵渝强老师】基于Redis的旁路缓存架构