大众点评Cat--Server模块架构分析

简介: 之前写过一篇dubbo cluster–架构。因为dubbo逻辑集群的功能主要是在client端,主要侧重在client的分析。后来因为工作忙和懒癌,也就没再继续server的叙述了。最近正好在看大众点评的cat源码,其中也有rpc的模块,就借此专门来分析下rpc server的实现。网络模型Cat server基于netty,是典型的reactor模型。 上图

之前写过一篇dubbo cluster–架构。因为dubbo逻辑集群的功能主要是在client端,主要侧重在client的分析。后来因为工作忙和懒癌,也就没再继续server的叙述了。最近正好在看大众点评的cat源码,其中也有rpc的模块,就借此专门来分析下rpc server的实现。

网络模型

Cat server基于netty,是典型的reactor模型。
reactor模型
上图是网上找的reactor模型示例图。Netty的boss和workder分别映射图中的mainReactor和subReactor。由boss accept nio channel,之后交由worker read, decode以及handle等。Netty的实现和图中略微有点不一致,在netty中decode和handle是同步的。

需要说明的是netty handler也可以异步处理,netty支持线程池分发handler thread。

还有另一种方案,由应用程序自身实现延迟队列做异步处理,handler只需将消息(事件)放入队列即可,cat采用的就是这种方案。Cat是通过decoder解码消息后调用handler将消息插入延迟队列,并没有向netty注册handler再由netty在decode完毕后调用相应handler。

Cat的传输数据对象为MessageTree,MessageCodec对传输消息编码和解码,MessageHanlder将消息放入队列。下图是cat server的静态结构。

cat server静态结构

领域模型
CatHomeModule就是cat server,它包含两个逻辑模块,一个是reactor,另一个是延时队列(period),分别对应上图的左右半边。

MessageConsumer和TcpSocketReceiver均被CatHomeModule依赖,其实是在receiver初始化工程中也相应初始化了这两个重要组件。同时MessageConsumer也是MessageHandler聚合属性,而handler则是receiver的一个内部属性。结构上看起来有点混乱,但其实module是启动了receiver的初始化,然后receiver在初始化过程中依赖了handler,而handler又依赖了consumer。而Module和consumer之间的依赖关系是一种很弱的关系,只是为了注册虚拟机的shutdownhook(消息提交章节会做详细说明)。

MessageTree是经由网络传递的消息报文对象,由MessageCodec进行解码和编码。在服务端被解码生成后作为方法参数被MessageConsumer消费,最终放入MessageQueue等待MessageAnalyzer处理。

MessageQueue被聚合在PeriodTask内,后者是个daemon线程,不断轮询MessageQueue,当有队列里有消息时就调用MessageAnalyzer处理,每个task只对应一个analyzer,analyzer就是队列的消费者。

一个Period代表一个周期,每个周期对应一个持续时间(duration),默认是一小时,且周期是整点时间段,例如1:00-2:00,2:00-3:00,而不是1:01-2:01。每个周期对应多个task,每条消息相应的也会被拷贝成多分分发给每个task。

周期由PeriodManager参考周期策略(PeriodStrategy)的结果生成或结束。

介绍完cat server的实体概念后,再从动态层面看下它的初始化过程以及消息的就绪,消费和提交过程。

Server初始化

在静态结构视图里提到了CatHomeModule依赖两个实体,分别为MessageCosumer和TcpSocketReceiver,它们分别承担了reaactor以及延迟队列的功能,由CatHomeModule的initialize和setup阶段被初始化。

首先看下延迟队列的初始化过程。
period初始化
上节提到策略结果会开始一个新的周期或者结束一个老的周期。上图的步骤5,策略会基于持续时间,提前开始时间(假设为a)以及延迟结束时间(假设为b)生成一个结果(a和b在cat中均默认为3分钟)。策略结果如果为正则start新周期,为负则end老周期,为0则不做任何动作。Cat默认超过duration*2+b的周期会被清理,相应的新周期也会提前a开始。

再看周期启动周期任务的过程(8-12),周期先回从应用上下文中获取所有的MessageAnalyzer(类似spring的getBeansOfType),再循环每个analyzer为每个analyzer生成一个或多个周期任务(视analyzer#getAnalyzerCount值而定)。

再看下reactor模块的初始化过程。
reactor初始化
TcpSocketReciver在Server启动过程中被从上下文中lookup出来,并且执行初始化过程,在初始化的过程中通过依赖注入将MessageConsumer注入了MessageHandler中。相应的也将MessageHandler和MessageCodec注入给自己作为聚合属性。

消息就绪

消息就绪
TcpSocketReciver是个netty server,它监听socket请求,由关联的MessageDecoder解析生成MessageTree,再交由MessageHandler处理。MessageHandler将MessageTree交由MessageConsumer(延迟队列)消费,consumer基于MessageTree的时间戳找到相应的Period(步骤8),将其放入相应的PeriodTask中。Cat延时队列不支持主题,所以每条消息会默认被所有task消费。

详细描述下步骤8和步骤10:
1. PeriodManager维护了一个m_periods的list,find的过程就是轮询该列表找出duration包含MessageTree#timeStamp的唯一周期。
2. Period里会保存m_tasks映射,结构是(Analyzer类型全限定名,List)。在上节提过analyzer会对应一到多个task,对这种重复task select过程会通过MessageTree#domain进行hash取模只选出1个的。之所以要支持analyzer和task一对多的关系模型应该是考虑到有些analyzer处理会比较耗时,对这种就需要设定多个task,保证处理效率。

消息消费

消息消费
消费过程相对简单,周期任务通过守护线程不断使用MessageAnalyzer对MessageQueue进行分析,如果MessageQueue#poll数据不为空则对poll出的MessageTree进行业务处理。每种MessageAnalyzer针对具体应用场景做相应处理,用户也可以自定义analyzer,只需要被容器感知就行。

消息提交

消息被消费后并不会立即持久化,而是放在内存里(analyzer的map属性),结构是(duration, (domain, T)),T是个业务维度的报表对象,例如EventReport,HeartbeatReport等。在周期结束或者jvm shutdown时会触发消息持久化。
消息提交
1. 上图是正常周期结束的处理过程。之前介绍过PeriodManager会默认停掉duration*2+extraTime时间前的周期,被停的周期会循环周期内的所有task做finish,相应的task调用其聚合属性MessageAnalyzer的doCheckpoint做消息持久化。
2. 静态结构章节里介绍过MessageConsumer和CatHomeModule是很弱的依赖关系,用来注册虚拟机的shutdownhook。下面是注册shutdownhook的代码片段:

Runtime.getRuntime().addShutdownHook(new Thread() {

            @Override
            public void run() {
                consumer.doCheckpoint();
            }
        });

consumer#doCheckpoint会通过PeriodManager#findPeriod查找当前时间点对应的周期,并对该周期进行finish,对应上图步骤9及以后。
3. 需要强调的一点是,MessageAnalyzer对MessageTree并不是单纯的做保存,而是基于业务做指标度量。可以把MessageTree想象成度量指标,而MessageAnalyzer则是对指标作分析出报表,doCheckpoint持久化的一般都是报表数据,报表里包含了部分甚至全部MessageTree信息。

目录
相关文章
|
4月前
|
人工智能 API 数据安全/隐私保护
Apifox 与 Apipost 的 API 文档引擎对比:底层架构、性能与可扩展性分析
深入探索市场上两大主流API工具——Apifox和Apipost的文档能力时,发现了令人惊讶的差距。这不仅仅是功能多寡的问题,更关乎开发效率与团队协作的质变。
|
20天前
|
Java API 开发工具
灵码产品演示:软件工程架构分析
本演示展示灵码对复杂软件项目的架构分析与文档生成能力。通过Qwen3模型,结合PlantUML,自动生成系统架构图、微服务时序图,并提取API接口文档,实现高效、智能的代码理解与文档输出。
109 5
|
18天前
|
存储 JSON 数据处理
ClkLog埋点与用户行为分析系统:架构升级与性能全面提升
随着越来越多企业在实际业务中使用 ClkLog,数据规模和分析需求也不断提升,部分用户日活已经超过10万,为了顺应这一趋势,ClkLog 秉持 “开放透明、持续演进”的理念,推出了迄今为止最重要的一次性能优化升级。新版本在大规模数据处理与复杂查询场景中,性能表现实现了跨越式提升。经过多轮研发与严格测试,新版本现已正式上线:在原有付费版 1.0 的基础上架构全面升级,并同步发布全新的 2.0 版本。为用户带来更强的性能与更广的适用场景。
|
6月前
|
人工智能 自然语言处理 数据可视化
两大 智能体框架 Dify vs Langchain 的全面分析,该怎么选?资深架构师 做一个彻底的解密
两大 智能体框架 Dify vs Langchain 的全面分析,该怎么选?资深架构师 做一个彻底的解密
两大 智能体框架 Dify vs Langchain 的全面分析,该怎么选?资深架构师 做一个彻底的解密
|
2月前
|
存储 前端开发 JavaScript
如何开发设备管理系统中的经验分析报表板块 ?(附架构图+流程图+代码参考)
设备管理系统(EMS)助力企业高效管理设备生命周期,涵盖采购、维护到报废全流程。本文详解经验分析报表模块设计与开发,涵盖动态看板、点检、巡检、维修、保养及库存统计功能,提供代码示例与架构设计建议,提升设备管理效率与决策水平。
|
5月前
|
机器学习/深度学习 人工智能 算法
大型多模态推理模型技术演进综述:从模块化架构到原生推理能力的综合分析
该研究系统梳理了大型多模态推理模型(LMRMs)的技术发展,从早期模块化架构到统一的语言中心框架,提出原生LMRMs(N-LMRMs)的前沿概念。论文划分三个技术演进阶段及一个前瞻性范式,深入探讨关键挑战与评估基准,为构建复杂动态环境中的稳健AI系统提供理论框架。未来方向聚焦全模态泛化、深度推理与智能体行为,推动跨模态融合与自主交互能力的发展。
297 13
大型多模态推理模型技术演进综述:从模块化架构到原生推理能力的综合分析
|
9月前
|
机器学习/深度学习 安全 算法
十大主流联邦学习框架:技术特性、架构分析与对比研究
联邦学习(FL)是保障数据隐私的分布式模型训练关键技术。业界开发了多种开源和商业框架,如TensorFlow Federated、PySyft、NVFlare、FATE、Flower等,支持模型训练、数据安全、通信协议等功能。这些框架在灵活性、易用性、安全性和扩展性方面各有特色,适用于不同应用场景。选择合适的框架需综合考虑开源与商业、数据分区支持、安全性、易用性和技术生态集成等因素。联邦学习已在医疗、金融等领域广泛应用,选择适配具体需求的框架对实现最优模型性能至关重要。
1616 79
十大主流联邦学习框架:技术特性、架构分析与对比研究
|
4月前
|
运维 监控 数据可视化
一文详解:工业软件“低代码开发平台”技术架构研究与分析
本文围绕工业软件低代码开发平台的机遇与挑战,提出基于自动化引擎的技术架构,由工具链、引擎库、模型库、组件库、工业数据网关和应用门户组成。文章分析了其在快速开发、传统系统升级中的应用模式及价值,如缩短创新周期、降低试错成本、解决资源缺乏和提升创新可复制性,为我国工业软件产业发展提供参考和支持。
|
4月前
|
负载均衡 Java API
基于 Spring Cloud 的微服务架构分析
Spring Cloud 是一个基于 Spring Boot 的微服务框架,提供全套分布式系统解决方案。它整合了 Netflix、Zookeeper 等成熟技术,通过简化配置和开发流程,支持服务发现(Eureka)、负载均衡(Ribbon)、断路器(Hystrix)、API网关(Zuul)、配置管理(Config)等功能。此外,Spring Cloud 还兼容 Nacos、Consul、Etcd 等注册中心,满足不同场景需求。其核心组件如 Feign 和 Stream,进一步增强了服务调用与消息处理能力,为开发者提供了一站式微服务开发工具包。
497 0
|
安全 数据处理 数据安全/隐私保护
C/S架构与B/S架构的适用场景分析
C/S架构(客户端/服务器架构)与B/S架构(浏览器/服务器架构)在适用场景上各有特点,主要取决于应用的具体需求、用户群体、系统维护成本、跨平台需求等因素。
961 6