淘宝Diamond架构分析

简介: 花了两天的时间研究了下Diamond,因为写得比较急,而且并没有使用过,只是单纯的做逆向建模,所以难免会有细节缺失,后面会时不时过来看看,然后做些补充。背景知识早期的应用都是单体的,配置修改后,只要通过预留的管理界面刷新reload即可。后来,应用开始拆分,从单一系统拆分成多个子系统,每个子系统还会对应多个运行实例,就开始面临一些问题: 1. 配置分散在多个业务

花了两天的时间研究了下Diamond,因为写得比较急,而且并没有使用过,只是单纯的做逆向建模,所以难免会有细节缺失,后面会时不时过来看看,然后做些补充。

背景知识

早期的应用都是单体的,配置修改后,只要通过预留的管理界面刷新reload即可。后来,应用开始拆分,从单一系统拆分成多个子系统,每个子系统还会对应多个运行实例,就开始面临一些问题:
1. 配置分散在多个业务子系统里,对同一配置的翻译在多个子系统里经常不一致。比如订单和购物车都有货币类型的配置,如果购物车上了一种新的货币类型而订单却没有相应同步增加配置项就会造成程序错误。
2. 将配置收敛成一个公有服务,可以有效改善,但是又会带来其他问题。在复杂应用里,修改一个配置项,无法确切的知道需要刷新哪些相关子系统。最终只能做全量刷新,甚至是停机发布。这对于一些停机敏感的应用例如电商几乎是无法接受的。
3. 配置收敛后,配置中心成了应用中的单点,配置如果挂了,应用也会跟着产生异常甚至挂掉。

Diamond就是为了解决这些问题,它是个高可用的配置中心。

Diamond的配置类型

配置是Diamond的核心域,也是Diamond致力于去解决的问题。Diamond有两个主要配置类型– single和aggr。二者结构如下:
配置结构
Aggr和single相比,少md5多datumId。DatumId是aggr的逻辑主键,aggr下dataId和datumId是1对多的关系,也就是说多条aggr会聚合成一条single,diamond通过merge任务对aggr合并最终生成一条single。

Md5是对content md5编码生成的字符串,用于判断缓存数据相比数据库数据是否不同,缓存数据必须严格与数据库数据一致,diamond并没有数据版本,默认数据库数据是最新的,也就是说如果数据库数据发生回退,即使缓存数据更新也会跟着回退。

Single才有md5,aggr其实并不算是完整的配置(多条aggr一起才是一个完整的配置),所以不需要校验数据是否改变。

整体架构设计

下图是Diamond的组件视图。Diamond主要有ops, sdk, client和server 4个组件。Ops是运维用的配置工具,主要用于下发以及查询配置等;server则是Diamond的后台,处理配置的一些逻辑;sdk则是提供给ops或者其他第三方应用的开发工具包;client则是编程api,它和sdk乍看有点像,其实差别很大,sdk是用于构建前台运维配置程序的,本质是对数据的维护,所有的访问和操作都是直接面向数据库的;而client则是这些数据的消费者,事实上准确的说是diamond的消费者们(各子系统)都是通过client组件对server访问。
进程视图

Diamond server是无中心节点的逻辑集群,读请求都是访问local file,而写请求则会先进入数据库,接着再更新各节点缓存。注意:ops或者其他第三方运维系统(其实就是sdk模块)读取和写入的都是数据库,这很容易理解,缓存会有lag,配置系统必须面向的是实时数据。

Diamond的数据库是单点的,这就可以利用数据库特性保证数据的原子性,一致性和持久性,也就不需要实现类似zk的集群协议,也就不存在leader/follower以及observer等节点角色,它是去中心化的,所有节点都可以接受任意请求。Diamond是典型的读多写少,写一般都来自运维系统例如ops,这种请求量会很小,即使峰值期对数据库的冲击也不会太大。实际上它就是数据库之上的一个保护壳,数据库的数据通过它透出来,也通过它渗进去。

Diamond的同质节点之间会相互通信以保证数据的一致性,每个节点都有其它节点的地址信息,其中一个节点收到变更请求后,首先写入数据库,再通知所有同质节点更新缓存,保证数据的一致性。

为了保证高可用,client会在app端以本地文件形式缓存数据的snapshot,保证即使server不可用时app也可用,这一点和dubbo很相似,所以也完全可以使用diamond搭建dubbo注册中心。

内存缓存

  • Client端使用的内存cache是一个AtomicReference

    1. 它并不是通常理解的内存缓存,而只是一个事件源,只有被监听的配置才会有cache。Cache内聚了group,dataId,md5,content和listener等。
    2. 客户端的长轮询任务(下一节将会重点介绍)只轮询被监听的配置,也就是cache的数据。客户端在pull到新数据后首先会更新snapshot,再更新cache,接着全量对比所有cache和它关联的listener的md5信息从而知道配置更新有没有被通知,没有则以cache中的内容作为消息载体通知,通知完成后更新listener的md5。
    3. 没被监听的数据不需要轮询,因为diamond提供的读数据api默认会先从服务节点获取实时数据。
  • 在客户端发起长轮询或者服务节点做dump时,都需要对比md5信息以确定是否要推送或者dump。Server端缓存全量缓存了所有配置的md5信息,并会第一时间得到更新,得到更新同时还会推送LocalDataChangeEvent。

  • 无论客户端还是服务端,内存缓存仅仅是为了满足某种功能需求,并不作为读的数据源(客户端只缓存部分数据,服务端不缓存配置内容)。这是基于产品本身定位而来的,产品定位本身就是牺牲一部分速度以降低成本,并且同时提供长轮询机制为时效性要求高的配置做到准实时的变更推送。但在客户端,每个应用的兴趣点都是分散的,平均下来每个应用感兴趣的配置数据并不大。

长轮询

Client会不断长轮询server,获取最新的配置推送,尽量保证本地数据的时效性。
长轮询

Client默认启动周期任务对server进行长轮询感知server的配置变化,server感知到配置变化就发送变更的数据编号,客户端通过数据编号再去拉取最新配置数据;否则超时结束请求(默认10秒)。拉取到新配置后,client会通知监听者(MessageListener)做相应处理,用户可以通过Diamond#addListener监听。
长轮询客户端
服务端通过AsyncContext对请求做非阻塞处理,通过定时任务感知配置变化。
长轮询server
详细描述下上图,
1. server收到请求后启动AsyncContext,并基于它构造ClientLongPulling。ClientLongPulling除了AsyncContext还有一个超时回复任务对长轮询请求做超时处理
2. 之后ClientLongPulling被加入等待列表。LongPullingService关联一个感知数据变化的定时任务,当有数据变化时(收到LocalDataChangeEvent),就会循环等待列表里的ClientLongPulling,推送数据变化回客户端。
4. Dump是抽象出来的一块儿概念,server的数据变化都会触发响应的dump task,并会发送相应的事件,由server感知,DataChangeTask也是一个事件监听者,能感知local file的数据变化。

服务端架构设计

Diamond集群是去中心化的,使用通知机制保证集群各节点数据一致。
集群数据同步
1. Diamond集群内每个节点都有其他节点的地址信息,当一台节点收到写请求后首先写数据库,接着就会发送ConfigDataChangeEvent,监听者收到该事件后通知所有节点做数据变更。通知的所有节点也包括自己,下发配置的请求只会更新数据库,并不会更新本地文件缓存。
2. 通知发送到所有节点后,通过dump更新local file。Dump是将配置对象dump进本地文件的过程,dump完毕后发送LocalDataChangeEvent,见上节。

任务管理

Diamond收到配置请求后,数据库执行完毕后,向任务管理的任务栈里插入一条任务,任务管理模块感知到新任务后,使用对应的TaskProcessor处理。TaskProcessor和Task的关系由用户调用TaskManager#addProcessor(或setDefaultProcessor)设置。因为使用队列,所以Diamond的任务管理器是FIFO的,这就会造成长延时任务阻塞其他任务的执行。

在Diamond中,为解决这个问题,给每个Task都定制了一个TaskManager。用户可以做些优化,参考hadoop的公平算法,针对应用场景(比如长延时,离线,实时等等)定制TaskProcessor。
任务管理

其他一些任务

为了保证Diamond的数据一致,除了以上介绍的两类任务,还有其他一些task,见下图:
server心跳任务
1. Merge任务用于合并aggr。App下发聚合配置到diamond后,会触发合并任务生成single,同时广播配置变更事件(ConfigDataChangeEvent),各节点收到通知后拉取数据库相应single数据并更新local file。这与上面描述的server数据同步基本类似,只是事件源头换成了merge。
merge任务
2. DumpAllTask会每6小时run一次做全量dump,全量删除老的缓存数据,生成新缓存。
2. DumpChangeTask做增量dump。通过和数据库的配置做md5对比,删除被移除配置的文件缓存,更新md5不一致的文件缓存等等。
3. 清除历史数据用于清除1周前的数据库his表数据。
4. 心跳任务用于记录心跳时间,节点服务重启时会判断距离上次心跳时间是否已经超过一小时,超过一小时则做全量dump,否则做增量。

剩下的都很好理解,不再一一介绍,需要注意的是,这些任务并不是都是定时做,有些是事件触发的,例如DumpTask和merge;还有些在Diamond服务启动时会触发,如merge,DumpChangeTask等。

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
目录
相关文章
|
1月前
|
SQL 运维 BI
湖仓分析|浙江霖梓基于 Doris + Paimon 打造实时/离线一体化湖仓架构
浙江霖梓早期基于 Apache Doris 进行整体架构与表结构的重构,并基于湖仓一体和查询加速展开深度探索与实践,打造了 Doris + Paimon 的实时/离线一体化湖仓架构,实现查询提速 30 倍、资源成本节省 67% 等显著成效。
湖仓分析|浙江霖梓基于 Doris + Paimon 打造实时/离线一体化湖仓架构
|
2月前
|
机器学习/深度学习 安全 算法
十大主流联邦学习框架:技术特性、架构分析与对比研究
联邦学习(FL)是保障数据隐私的分布式模型训练关键技术。业界开发了多种开源和商业框架,如TensorFlow Federated、PySyft、NVFlare、FATE、Flower等,支持模型训练、数据安全、通信协议等功能。这些框架在灵活性、易用性、安全性和扩展性方面各有特色,适用于不同应用场景。选择合适的框架需综合考虑开源与商业、数据分区支持、安全性、易用性和技术生态集成等因素。联邦学习已在医疗、金融等领域广泛应用,选择适配具体需求的框架对实现最优模型性能至关重要。
537 79
十大主流联邦学习框架:技术特性、架构分析与对比研究
|
2月前
|
测试技术 双11 开发者
一文分析架构思维之建模思维
软件里的要素不是凭空出现的,都是源于实际的业务。本文从软件设计本源到建模案例系统的介绍了作者对于建模的思维和思考。
|
3月前
|
机器学习/深度学习 存储 人工智能
基于AI的实时监控系统:技术架构与挑战分析
AI视频监控系统利用计算机视觉和深度学习技术,实现实时分析与智能识别,显著提升高风险场所如监狱的安全性。系统架构包括数据采集、预处理、行为分析、实时决策及数据存储层,涵盖高分辨率视频传输、图像增强、目标检测、异常行为识别等关键技术。面对算法优化、实时性和系统集成等挑战,通过数据增强、边缘计算和模块化设计等方法解决。未来,AI技术的进步将进一步提高监控系统的智能化水平和应对复杂安全挑战的能力。
|
4月前
|
存储 SQL Apache
Apache Doris 开源最顶级基于MPP架构的高性能实时分析数据库
Apache Doris 是一个基于 MPP 架构的高性能实时分析数据库,以其极高的速度和易用性著称。它支持高并发点查询和复杂分析场景,适用于报表分析、即席查询、数据仓库和数据湖查询加速等。最新发布的 2.0.2 版本在性能、稳定性和多租户支持方面有显著提升。社区活跃,已广泛应用于电商、广告、用户行为分析等领域。
Apache Doris 开源最顶级基于MPP架构的高性能实时分析数据库
|
4月前
|
运维 NoSQL Java
后端架构演进:微服务架构的优缺点与实战案例分析
【10月更文挑战第28天】本文探讨了微服务架构与单体架构的优缺点,并通过实战案例分析了微服务架构在实际应用中的表现。微服务架构具有高内聚、低耦合、独立部署等优势,但也面临分布式系统的复杂性和较高的运维成本。通过某电商平台的实际案例,展示了微服务架构在提升系统性能和团队协作效率方面的显著效果,同时也指出了其带来的挑战。
149 4
|
5月前
|
存储 SQL 分布式计算
湖仓一体架构深度解析:构建企业级数据管理与分析的新基石
【10月更文挑战第7天】湖仓一体架构深度解析:构建企业级数据管理与分析的新基石
457 1
|
6月前
|
存储 监控 安全
SaaS业务架构:业务能力分析
【9月更文挑战第20天】在数字化时代,软件即服务(SaaS)模式逐渐成为企业软件解决方案的首选。SaaS 业务架构设计对于提供高效、可靠的服务至关重要。其核心业务能力包括:用户管理(注册登录、角色权限)、数据管理(存储备份、安全共享)、业务流程管理(设计定制、工作流自动化)、应用集成(第三方应用、移动应用)及客户服务(支持培训、反馈改进)。通过优化这些能力,可为企业提供更高效、可靠的 SaaS 服务。
128 11
|
6月前
|
安全 数据处理 数据安全/隐私保护
C/S架构与B/S架构的适用场景分析
C/S架构(客户端/服务器架构)与B/S架构(浏览器/服务器架构)在适用场景上各有特点,主要取决于应用的具体需求、用户群体、系统维护成本、跨平台需求等因素。
631 6
|
6月前
|
缓存 负载均衡 数据管理
深入探索微服务架构的核心要素与实践策略在当今软件开发领域,微服务架构以其独特的优势和灵活性,已成为众多企业和开发者的首选。本文将深入探讨微服务架构的核心要素,包括服务拆分、通信机制、数据管理等,并结合实际案例分析其在不同场景下的应用策略,旨在为读者提供一套全面、深入的微服务架构实践指南。**
**微服务架构作为软件开发领域的热门话题,正引领着一场技术革新。本文从微服务架构的核心要素出发,详细阐述了服务拆分的原则与方法、通信机制的选择与优化、数据管理的策略与挑战等内容。同时,结合具体案例,分析了微服务架构在不同场景下的应用策略,为读者提供了实用的指导和建议。

热门文章

最新文章