SOFARegistry 源码|数据同步模块解析

本文涉及的产品
云解析 DNS,旗舰版 1个月
全局流量管理 GTM,标准版 1个月
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
简介: 本文主要介绍了 SOFARegistry 中的数据同步模块。在整个过程中,我们首先从 SOFARegistry 角色分类阐述不同角色之间存在的数据同步问题,并针对其中 SessionServer 与 DataServer 之间的数据同步 和 DataServer 多副本之间的数据同步进行了展开。

图片

文|宋国磊(GitHub ID:glmapper )

SOFAStack Committer、华米科技高级研发工程师

负责华米账号系统、框架治理方向的开发

本文 3024 字 阅读 10 分钟

|前言|

本文主要围绕 SOFARegistry 的数据同步模块进行了源码的解析。其中,对于注册中心的概念以及 SOFARegistry 的基础架构将不再做详细的阐述,有兴趣的小伙伴在《海量数据下的注册中心 - SOFARegistry 架构介绍》[1]一文中获取相关介绍。

本文主要的思路大致分为以下 2 个部分:

- 第一部分,借助 SOFARegistry 中的角色分类来说明哪些角色之间会进行数据同步;

- 第二部分,对数据同步的具体实现进行解析。

PART. 1——SOFARegistry 的角色分类

图片

如上图所示,SOFARegistry 包含以下 4 个角色:

Client

提供应用接入服务注册中心的基本 API 能力,应用系统通过依赖客户端 JAR 包,通过编程方式调用服务注册中心的服务订阅和服务发布能力。

SessionServer

会话服务器,负责接受 Client 的服务发布和服务订阅请求,并作为一个中间层将写操作转发 DataServer 层。SessionServer 这一层可随业务机器数的规模的增长而扩容。

DataServer

数据服务器,负责存储具体的服务数据,数据按 dataInfoId 进行一致性 Hash 分片存储,支持多副本备份,保证数据高可用。这一层可随服务数据量的规模的增长而扩容。\

MetaServer

元数据服务器,负责维护集群 SessionServer 和 DataServer 的一致列表,作为 SOFARegistry 集群内部的地址发现服务,在 SessionServer 或 DataServer 节点变更时可以通知到整个集群。

在这 4 个角色中,MetaServer 作为元数据服务器本身不处理实际的业务数据,仅负责维护集群 SessionServer 和 DataServer 的一致列表,不涉及数据同步问题。

Client 与 SessionServer 之间的核心动作是订阅和发布,从广义上来说,属于用户侧客户端与 SOFARegistry 集群的数据同步,详情可以见:

https://github.com/sofastack/sofa-registry/issues/195,因此不在本文讨论范畴之内。

SessionServer 作为会话服务,它主要解决海量客户端连接问题,其次是缓存客户端发布的所有 pub 数据。Session 本身不持久化服务数据,而是将数据转写到 DataServer。DataServer 存储服务数据是按照 dataInfoId 进行一致性 Hash 分片存储的,支持多副本备份,保证数据高可用。

从 SessionServer 和 DataServer 的功能分析中可以得出:

SessionServer 缓存的服务数据需要与 DataServer 存储的服务数据保持一致

图片

DataServer 支持多副本来保证高可用,因此 DataServer 多副本之间需要保持服务数据一致。

图片

SOFARegistry 中,针对上述两个对于数据的一致性保证就是通过数据同步机制来实现的。

PART. 2——数据同步的具体实现

了解了 SOFARegistry 的角色分类之后,我们开始深入数据同步具体的实现细节。我将主要围绕 SessionServer 和 DataServer 之间的数据同步,以及 DataServer 多副本之间的数据同步两块内容来展开。

「SessionServer 和 DataServer 之间的数据同步」

SessionServer 和 DataServer 之间的数据同步,是基于如下推拉结合的机制:

推: DataServer 在数据有变化时,会主动通知 SessionServer,SessionServer 检查确认需要更新 (对比 version)  后主动向 DataServer 获取数据。

拉: 除了上述的 DataServer 主动推以外,SessionServer 每隔一定的时间间隔,会主动向 DataServer 查询所有 dataInfoId 的 version 信息,然后再与 SessionServer 内存的 version 作比较。若发现 version 有变化,则主动向 DataServer 获取数据。这个“拉”的逻辑,主要是对“推”的一个补充,若在“推”的过程中出现错漏的情况可以在这个时候及时弥补。

推和拉两种模式检查的 version 会有一些差异,这部分内容详见下面“推模式下的数据同步”和“拉模式下的数据同步”中的具体介绍。

「推模式下的数据同步流程」

推模式是通过 SyncingWatchDog 这个守护线程不断 loop 执行来实现数据变更检查和通知发起的:

图片

根据 slot 分组汇总数据版本。data 与每个 session 的连接都对应一个 SyncSessionTask,SyncSessionTask 负责执行同步数据的任务,核心同步逻辑在:

com.alipay.sofa.registry.server.data.slot.SlotDiffSyncer#sync 方法中完成,大致流程如下时序图所示:

图片

上图圈红部分的逻辑第四步,根据 dataInfoId diff 更新 data 内存数据,可以看到这里仅处理了被移除的 dataInfoId,对于新增和更新的没有做任务处理,而是通过后面的第 5-7 步来完成。这么做的主要原因在于避免产生空推送而导致一些危险情况发生。

第 5 步中,比较的是所有变更 dataInfoId 的 pub version,具体比较逻辑可以参考后面 diffPublisher 小节中的介绍。

「数据变更的事件通知处理」

数据变更事件会被收集在 DataChangeEventCenter 的 dataCenter2Changes 缓存中,然后由一个守护线程 ChangeMerger 负责从 dataCenter2Changes 缓存中不断的读取,这些被捞到的事件源会被组装成 ChangeNotifier 任务,提交给一个单独的线程池 (notifyExecutor) 处理,整个过程全部是异步的。

图片

「拉模式下的数据同步流程」

拉模式下,由 SessionServer 负责发起,

com.alipay.sofa.registry.server.session.registry.SessionRegistry.VersionWatchDog

默认情况下每 5 秒扫描一次版本数据,如果版本有发生变更,则主动进行一次拉取,流程大致如下:

图片

需要注意的是,拉模式对推送流程的补充,这里的 version 是每个 sub 的 lastPushedVersion, 而推模式的 version 是 pub 的数据的 version。关于 lastPushedVersion 的获取可以参考:

com.alipay.sofa.registry.server.session.store.SessionInterests#selectSubscribers

图片

「DataServer 多副本之间的数据同步」

主要是 slot 对应的 data 的 follower 定期和 leader 进行数据同步,其同步逻辑与 SessionServer 和 DataServer 之间的数据同步逻辑差异不大;发起方式也是一样的;data 判断如果当前节点不是 leader,就会进行与 leader 之间的数据同步。

图片

「增量同步 diff 计算逻辑分析」

不管是 SessionServer 和 DataServer 之间的同步,还是 DataServer 多副本之间的同步,都是基于增量 diff 同步的,不会一次性同步全量数据。

本节对增量同步 diff 计算逻辑进行简单分析,核心代码在:

com.alipay.sofa.registry.common.model.slot.DataSlotDiffUtils (建议阅读这部分代码时直接结合代码中的测试用例来看)

主要包括计算 digest 和 publishers 两个。

diffDigest

用 DataSlotDiffUtils#diffDigest 方法接收两个参数:

- targetDigestMap 可以理解为目标数据

- sourceDigestMap 可以理解为基线数据

核心计算逻辑如下代码分析:

图片

那么根据上述 diff 计算逻辑,这里有如下几种场景 (假设基线数据集数据中 dataInfoId 为 a 和 b)

1. 目标数据集为空:返回 dataInfoId 为 a 和 b 两项作为新增项;

2. 目标数据集与基线数据集相等,新增项、待更新项与待移除项均为空;

3. 目标数据集中包括 a、b、c 三个 dataInfoId,则返回 c 作为待移除项;

4. 目标数据集中包括 a 和 c 两个 dataInfoId,则返回 c 作为待移除项,b 作为新增项

diffPublisher

diffPublisher 与 diffDigest 计算稍有不同,diffPublisher 接收三个参数,除了目标数据集和基线数据集之外,还有一个 publisherMaxNum (默认 400) ,用于限制每次处理的数据个数;这里同样给出核心代码解释:

图片图片

这里同样对几种场景做一下分析 (下面指的是更新 dataInfoId 对应的 publisher,registerId 与 publisher 一一对应)

1. 目标数据集与基线数据集相同,且数据没有超过 publisherMaxNum,返回的待更新和待移除均为空,且没有剩余未处理数据;

2. 需要移除的情况:
基线中不包括目标数据集 dataInfoId 的 registerId (移除的是 registerId,不是 dataInfoId)

3. 需要更新的情况:
- 目标数据集中存在基线数据集不存在的 registerId
- 目标数据集和基线数据集存在的 registerId 的版本不同

PART. 3——总结

本文主要介绍了 SOFARegistry 中的数据同步模块。在整个过程中,我们首先从 SOFARegistry 角色分类阐述不同角色之间存在的数据同步问题,并针对其中 SessionServer 与 DataServer 之间的数据同步 和 DataServer 多副本之间的数据同步进行了展开。

在 SessionServer 与 DataServer 数据同步分析中,着重分析了推和拉两种场景下数据同步的整体流程。最后对 SOFARegistry 中数据增加的 diff 计算逻辑进行了介绍,并结合相关核心代码描述了具体的场景。

整体来看,SOFARegistry 在数据同步上的处理上有如下三点可以对我们有所启发:

1. 在一致性方面,SOFARegistry 基于 ap,满足了最终一致性,并在实际的同步逻辑处理上,结合事件机制,基本都是异步化完成的,这样一来就有效弱化了数据同步对于核心流程的影响;

2. 在拉模式和数据变更通知两个部分,内部采用了类似“生产-消费模型”,一方面是对于生产和消费逻辑的解耦,从代码上更独立;另一方面通过缓存或者队列来消除生产和消费速度不同而导致的相互阻塞的问题;

3. 拉模式对推模式的补充;我们知道推模式是 server -> client,发生在数据变更时,如果出现一些异常,导致某条 server -> client 链路推送失败,则会导致不同 client 持有的数据不一致的情况;拉模式的补充,让 client 能主动去完成对于数据一致性的检查。

【参考链接】

[1]《海量数据下的注册中心 - SOFARegistry 架构介绍》:https://www.sofastack.tech/blog/sofa-registry-introduction/

项目原文地址:https://www.sofastack.tech/projects/sofa-registry/code-analyze/code-analyze-data-synchronization/

了解更多

SOFARegistry Star 一下✨:\
https://github.com/sofastack/sofa-registry

本周推荐阅读

SOFARegistry 源码|数据分片之核心-路由表 SlotTable 剖析

图片

探索 SOFARegistry(一)|基础架构篇

图片

MOSN 构建 Subset 优化思路分享

图片

Nydus —下一代容器镜像探索实践

图片

相关文章
|
3天前
|
监控 Java 应用服务中间件
高级java面试---spring.factories文件的解析源码API机制
【11月更文挑战第20天】Spring Boot是一个用于快速构建基于Spring框架的应用程序的开源框架。它通过自动配置、起步依赖和内嵌服务器等特性,极大地简化了Spring应用的开发和部署过程。本文将深入探讨Spring Boot的背景历史、业务场景、功能点以及底层原理,并通过Java代码手写模拟Spring Boot的启动过程,特别是spring.factories文件的解析源码API机制。
15 2
|
1月前
|
缓存 Java 程序员
Map - LinkedHashSet&Map源码解析
Map - LinkedHashSet&Map源码解析
66 0
|
3天前
|
存储 安全 Linux
Golang的GMP调度模型与源码解析
【11月更文挑战第11天】GMP 调度模型是 Go 语言运行时系统的核心部分,用于高效管理和调度大量协程(goroutine)。它通过少量的操作系统线程(M)和逻辑处理器(P)来调度大量的轻量级协程(G),从而实现高性能的并发处理。GMP 模型通过本地队列和全局队列来减少锁竞争,提高调度效率。在 Go 源码中,`runtime.h` 文件定义了关键数据结构,`schedule()` 和 `findrunnable()` 函数实现了核心调度逻辑。通过深入研究 GMP 模型,可以更好地理解 Go 语言的并发机制。
|
16天前
|
消息中间件 缓存 安全
Future与FutureTask源码解析,接口阻塞问题及解决方案
【11月更文挑战第5天】在Java开发中,多线程编程是提高系统并发性能和资源利用率的重要手段。然而,多线程编程也带来了诸如线程安全、死锁、接口阻塞等一系列复杂问题。本文将深度剖析多线程优化技巧、Future与FutureTask的源码、接口阻塞问题及解决方案,并通过具体业务场景和Java代码示例进行实战演示。
36 3
|
1月前
|
存储
让星星⭐月亮告诉你,HashMap的put方法源码解析及其中两种会触发扩容的场景(足够详尽,有问题欢迎指正~)
`HashMap`的`put`方法通过调用`putVal`实现,主要涉及两个场景下的扩容操作:1. 初始化时,链表数组的初始容量设为16,阈值设为12;2. 当存储的元素个数超过阈值时,链表数组的容量和阈值均翻倍。`putVal`方法处理键值对的插入,包括链表和红黑树的转换,确保高效的数据存取。
53 5
|
1月前
|
Java Spring
Spring底层架构源码解析(三)
Spring底层架构源码解析(三)
108 5
|
1月前
|
XML Java 数据格式
Spring底层架构源码解析(二)
Spring底层架构源码解析(二)
|
29天前
|
JSON 前端开发 JavaScript
前端模块打包器的深度解析
【10月更文挑战第13天】前端模块打包器的深度解析
|
29天前
|
缓存 前端开发 JavaScript
Webpack技术深度解析:模块打包与性能优化
【10月更文挑战第13天】Webpack技术深度解析:模块打包与性能优化
|
1月前
|
算法 Java 程序员
Map - TreeSet & TreeMap 源码解析
Map - TreeSet & TreeMap 源码解析
33 0

热门文章

最新文章

推荐镜像

更多