17 | 异步 RPC:压榨单机吞吐量

简介: 本文深入探讨如何通过异步机制提升RPC框架的单机吞吐量。重点分析影响吞吐量的核心原因——业务逻辑耗时导致CPU利用率低,并提出“异步”为关键解决方案。详细讲解调用端使用Future、服务端支持CompletableFuture实现全链路异步的原理与优势,显著提升系统性能与资源利用率。

在上个篇章,我们学习了 RPC 框架的基础架构和一系列治理功能,以及一些与集群管理相关的高级功能,如服务发现、健康检查、路由策略、负载均衡、优雅启停机等等。

有了这些知识储备,你就已经对 RPC 框架有了较为充分的认识。但如果你想要更深入地了解 RPC,更好地使用 RPC,你就必须从 RPC 框架的整体性能上去考虑问题了。你得知道如何去提升 RPC 框架的性能、稳定性、安全性、吞吐量,以及如何在分布式的场景下快速定位问题等等,这些都是我们在高级篇中重点要讲解的内容。难度有一定提升,希望你能坚持学习呀!

那么今天我们就先来讲讲,RPC 框架是如何压榨单机吞吐量的。

如何提升单机吞吐量?

在我运营 RPC 的过程中,如何提升吞吐量 是我与业务团队经常讨论的问题。

记得之前业务团队反馈过这样一个问题:我们的 TPS 始终上不去,压测的时候 CPU 压到 40%~50% 就再也压不上去了,TPS 也不会提高,问我们这里有没有什么解决方案可以提升业务的吞吐量?

之后我是看了下他们服务的业务逻辑,发现他们的业务逻辑在执行较为耗时的业务逻辑的基础上,又同步调用了好几个其它的服务。由于这几个服务的耗时较长,才导致这个服务的业务逻辑耗时也长,CPU 大部分的时间都在等待,并没有得到充分地利用,因此 CPU 的利用率和服务的吞吐量当然上不去了。

那是什么影响到了 RPC 调用的吞吐量呢?

在使用 RPC 的过程中,谈到性能和吞吐量,我们的第一反应就是选择一款高性能、高吞吐量的 RPC 框架,那影响到 RPC 调用的吞吐量的根本原因是什么呢?

其实根本原因就是由于处理 RPC 请求比较耗时,并且 CPU 大部分的时间都在等待而没有去计算,从而导致 CPU 的利用率不够。这就好比一个人在干活,但他没有规划好时间,并且有很长一段时间都在闲着,当然也就完不成太多工作了。

那么导致 RPC 请求比较耗时的原因主要是在于 RPC 框架本身吗?事实上除非在网络比较慢或者使用方使用不当的情况下,否则,在大多数情况下,刨除业务逻辑处理的耗时时间,RPC 本身处理请求的效率就算在比较差的情况下也不过是毫秒级的。可以说 RPC 请求的耗时大部分都是业务耗时,比如业务逻辑中有访问数据库执行慢 SQL 的操作。所以说,在大多数情况下,影响到 RPC 调用的吞吐量的原因也就是业务逻辑处理慢了,CPU 大部分时间都在等待资源。

弄明白了原因,咱们就可以解决问题了,该如何去提升单机吞吐量?

这并不是一个新话题,比如现在我们经常提到的响应式开发,就是为了能够提升业务处理的吞吐量。要提升吞吐量,其实关键就两个字:异步。我们的 RPC 框架要做到完全异步化,实现全异步 RPC。试想一下,如果我们每次发送一个异步请求,发送请求过后请求即刻就结束了,之后业务逻辑全部异步执行,结果异步通知,这样可以增加多么可观的吞吐量?

效果不用我说我想你也清楚了。那 RPC 框架都有哪些异步策略呢?

调用端如何异步?

说到异步,我们最常用的方式就是返回 Future 对象的 Future 方式,或者入参为 Callback 对象的回调方式,而 Future 方式可以说是最简单的一种异步方式了。我们发起一次异步请求并且从请求上下文中拿到一个 Future,之后我们就可以调用 Future 的 get 方法获取结果。

就比如刚才我提到的业务团队的那个问题,他们的业务逻辑中调用了好几个其它的服务,这时如果是同步调用,假设调用了 4 个服务,每个服务耗时 10 毫秒,那么业务逻辑执行完至少要耗时 40 毫秒。

那如果采用 Future 方式呢?

连续发送 4 次异步请求并且拿到 4 个 Future,由于是异步调用,这段时间的耗时几乎可以忽略不计,之后我们统一调用这几个 Future 的 get 方法。这样一来的话,业务逻辑执行完的时间在理想的情况下是多少毫秒呢?没错,10 毫秒,耗时整整缩短到了原来的四分之一,也就是说,我们的吞吐量有可能提升 4 倍!

那 RPC 框架的 Future 方式异步又该如何实现呢?

通过基础篇的学习,我们了解到,一次 RPC 调用的本质就是调用端向服务端发送一条请求消息,服务端收到消息后进行处理,处理之后响应给调用端一条响应消息,调用端收到响应消息之后再进行处理,最后将最终的返回值返回给动态代理。

这里我们可以看到,对于调用端来说,向服务端发送请求消息与接收服务端发送过来的响应消息,这两个处理过程是两个完全独立的过程,这两个过程甚至在大多数情况下都不在一个线程中进行。那么是不是说 RPC 框架的调用端,对于 RPC 调用的处理逻辑,内部实现就是异步的呢?

不错,对于 RPC 框架,无论是同步调用还是异步调用,调用端的内部实现都是异步的。

通过  第 02 讲 我们知道,调用端发送的每条消息都一个唯一的消息标识,实际上调用端向服务端发送请求消息之前会先创建一个 Future,并会存储这个消息标识与这个 Future 的映射,动态代理所获得的返回值最终就是从这个 Future 中获取的;当收到服务端响应的消息时,调用端会根据响应消息的唯一标识,通过之前存储的映射找到对应的 Future,将结果注入给那个 Future,再进行一系列的处理逻辑,最后动态代理从 Future 中获得到正确的返回值。

所谓的同步调用,不过是 RPC 框架在调用端的处理逻辑中主动执行了这个 Future 的 get 方法,让动态代理等待返回值;而异步调用则是 RPC 框架没有主动执行这个 Future 的 get 方法,用户可以从请求上下文中得到这个 Future,自己决定什么时候执行这个 Future 的 get 方法。

现在你应该很清楚 RPC 框架是如何实现 Future 方式的异步了。

如何做到 RPC 调用全异步?

刚才我讲解了 Future 方式的异步,Future 方式异步可以说是调用端异步的一种方式,那么服务端呢?服务端是否需要异步,有什么实现方式?

通过基础篇的学习,我们了解到 RPC 服务端接收到请求的二进制消息之后会根据协议进行拆包解包,之后将完整的消息进行解码并反序列化,获得到入参参数之后再通过反射执行业务逻辑。那你有没有想过,在生产环境中这些操作都在哪个线程中执行呢?是在一个线程中执行吗?

当然不会在一个,对二进制消息数据包拆解包的处理是一定要在处理网络 IO 的线程中,如果网络通信框架使用的是 Netty 框架,那么对二进制包的处理是在 IO 线程中,而解码与反序列化的过程也往往在 IO 线程中处理,那服务端的业务逻辑呢?也应该在 IO 线程中处理吗?原则上是不应该的,业务逻辑应该交给专门的业务线程池处理,以防止由于业务逻辑处理得过慢而影响到网络 IO 的处理。

这时问题就来了,我们配置的业务线程池的线程数都是有限制的,在我运营 RPC 的经验中,业务线程池的线程数一般只会配置到 200,因为在大多数情况下线程数配置到 200 还不够用就说明业务逻辑该优化了。那么如果碰到特殊的业务场景呢?让配置的业务线程池完全打满了,比如这样一个场景。

我这里启动一个服务,业务逻辑处理得就是比较慢,当访问量逐渐变大时,业务线程池很容易就被打满了,吞吐量很不理想,并且这时 CPU 的利用率也很低。

对于这个问题,你有没有想到什么解决办法呢?是不是会马上想到调大业务线程池的线程数?那这样可以吗?有没有更好的解决方式呢?

我想服务端业务处理逻辑异步是个好方法。

调大业务线程池的线程数,的确勉强可以解决这个问题,但是对于 RPC 框架来说,往往都会有多个服务共用一个线程池的情况,即使调大业务线程池,比较耗时的服务很可能还会影响到其它的服务。所以最佳的解决办法是能够让业务线程池尽快地释放,那么我们就需要 RPC 框架能够支持服务端业务逻辑异步处理,这对提高服务的吞吐量有很重要的意义。

那服务端如何支持业务逻辑异步呢?

这是个比较难处理的问题,因为服务端执行完业务逻辑之后,要对返回值进行序列化并且编码,将消息响应给调用端,但如果是异步处理,业务逻辑触发异步之后方法就执行完了,来不及将真正的结果进行序列化并编码之后响应给调用端。

这时我们就需要 RPC 框架提供一种回调方式,让业务逻辑可以异步处理,处理完之后调用 RPC 框架的回调接口,将最终的结果通过回调的方式响应给调用端。

说到服务端支持业务逻辑异步处理,结合我刚才讲解的 Future 方式异步,你有没有想到更好的处理方式呢?其实我们可以让 RPC 框架支持 CompletableFuture,实现 RPC 调用在调用端与服务端之间完全异步。

CompletableFuture 是 Java8 原生支持的。试想一下,假如 RPC 框架能够支持 CompletableFuture,我现在发布一个 RPC 服务,服务接口定义的返回值是 CompletableFuture 对象,整个调用过程会分为这样几步:

  1. 服务调用方发起 RPC 调用,直接拿到返回值 CompletableFuture 对象,之后就不需要任何额外的与 RPC 框架相关的操作了(如我刚才讲解 Future 方式时需要通过请求上下文获取 Future 的操作),直接就可以进行异步处理;
  2. 在服务端的业务逻辑中创建一个返回值 CompletableFuture 对象,之后服务端真正的业务逻辑完全可以在一个线程池中异步处理,业务逻辑完成之后再调用这个 CompletableFuture 对象的 complete 方法,完成异步通知;
  3. 调用端在收到服务端发送过来的响应之后,RPC 框架再自动地调用调用端拿到的那个返回值 CompletableFuture 对象的 complete 方法,这样一次异步调用就完成了。

通过对 CompletableFuture 的支持,RPC 框架可以真正地做到在调用端与服务端之间完全异步,同时提升了调用端与服务端的两端的单机吞吐量,并且 CompletableFuture 是 Java8 原生支持,业务逻辑中没有任何代码入侵性,这是不是很酷炫了?

总结

今天我们主要讲解了如果通过 RPC 的异步去压榨单机的吞吐量。影响到 RPC 调用的吞吐量的主要原因就是服务端的业务逻辑比较耗时,并且 CPU 大部分时间都在等待而没有去计算,导致 CPU 利用率不够,而提升单机吞吐量的最好办法就是使用异步 RPC。

RPC 框架的异步策略主要是调用端异步与服务端异步。调用端的异步就是通过 Future 方式实现异步,调用端发起一次异步请求并且从请求上下文中拿到一个 Future,之后通过 Future 的 get 方法获取结果,如果业务逻辑中同时调用多个其它的服务,则可以通过 Future 的方式减少业务逻辑的耗时,提升吞吐量。服务端异步则需要一种回调方式,让业务逻辑可以异步处理,之后调用 RPC 框架提供的回调接口,将最终结果异步通知给调用端。

另外,我们可以通过对 CompletableFuture 的支持,实现 RPC 调用在调用端与服务端之间的完全异步,同时提升两端的单机吞吐量。

其实,RPC 框架也可以有其它的异步策略,比如集成 RxJava,再比如 gRPC 的 StreamObserver 入参对象,但 CompletableFuture 是 Java8 原生提供的,无代码入侵性,并且在使用上更加方便。如果是 Java 开发,让 RPC 框架支持 CompletableFuture 可以说是最佳的异步解决方案。

课后思考

对于 RPC 调用提升吞吐量这个问题,你是否还有其它的解决方案?你还能想到哪些 RPC 框架的异步策略?

相关文章
|
3月前
|
网络协议 算法 前端开发
07 | 架构设计:设计一个灵活的 RPC 框架
本文深入讲解如何设计一个灵活的 RPC 框架,从基础通信原理出发,剖析传输、协议、服务发现、连接管理等核心模块,并提出分层架构与插件化设计思想,提升系统可扩展性与维护性,助力构建高性能、易演进的分布式服务架构。
|
27天前
|
弹性计算 人工智能 机器人
2026年OpenClaw(Clawdbot)阿里云+本地部署,低成本稳定运行保姆级指南
OpenClaw作为开源AI Agent工具,其核心价值在于通过自动化与大模型结合实现生产力提升,但多数用户初次部署时易陷入**云服务器配置繁琐、API成本失控、多Agent记忆错乱、技能安装踩坑**等问题。2026年结合实操经验,本文从架构选择、阿里云ECS部署、本地部署、低成本配置、核心记忆体系搭建、技能规划六大维度,拆解OpenClaw从安装到稳定运行的全流程,包含可直接复制的代码命令,规避80%的常见坑,同时兼顾阿里云远程部署的稳定性与本地部署的低成本,打造可长期复用的OpenClaw运行方案。
830 0
|
12天前
|
存储 API Docker
告别“金鱼脑”!OpenClaw记忆系统完全手册(阿里云/本地部署+记忆优化+避坑指南)
“昨天聊完的需求,今天再问就忘;反复强调的偏好,每次都要重新说明”——这是2026年无数OpenClaw用户的痛点。参考文章精准指出核心问题:AI智能体的记忆能力直接决定使用体验,而OpenClaw的记忆系统并非“自动生效”,需要理解其底层逻辑才能充分利用。
1290 1
|
18天前
|
存储 人工智能 API
AI龙虾 🐲🦞 OpenClaw 喂饭级图文教程!1分钟阿里云/本地部署,配置免费百炼API+Gateway+Skills+Memory 解析
2026年初,OpenClaw(曾用名Clawdbot)以“3周GitHub星标破25万”的速度引爆开源圈,英伟达CEO黄仁勋称其为“有史以来最重要的软件发布”。它彻底打破传统AI“只说不做”的局限,通过Gateway(网关)、Skills(技能)、Memory(记忆)三大核心组件,构建起能接管电脑、自动完成全流程任务的“AI员工”——猎豹移动CEO傅盛曾依靠8个OpenClaw Agent组成的“数字团队”,实现公众号日更并斩获100万阅读量,印证了AI Agent从“辅助工具”到“执行中枢”的进化。
698 5
|
22天前
|
存储 人工智能 安全
OpenClaw(Clawdbot)从中级到高级进阶指南:部署+记忆系统+多Agent协作实操及避坑手册
OpenClaw(原Clawdbot)作为开源AI Agent框架,其核心价值在于可扩展性与深度定制能力。多数用户完成基础部署后,仅能使用基础对话与简单技能调用功能,难以发挥其全部潜力——中级到高级的进阶,本质是从“会用”到“活用”的跨越,核心突破点在于**记忆系统优化、多Agent协作、自定义Skill开发、自动化工作流搭建**四大模块。
1182 0
|
3月前
|
缓存 网络协议 关系型数据库
01丨核心原理:能否画张图解释下 RPC 的通信流程?
本文深入解析RPC(远程过程调用)的核心原理与通信流程,从定义、作用到实现细节,揭示其如何屏蔽网络通信复杂性,实现像调用本地方法一样调用远程服务。通过序列化、协议设计、动态代理等机制,RPC成为分布式系统中不可或缺的“经络”,支撑微服务架构的高效通信,是开发者必须掌握的基础技术。
|
3月前
|
存储 XML JSON
03 | 序列化:对象怎么在网络中传输?
本讲深入讲解RPC框架中的序列化机制,介绍JDK原生、JSON、Hessian、Protobuf等常用序列化方式的特点与适用场景,分析性能、空间开销、兼容性及安全性等选型关键因素,强调在实际应用中应优先考虑稳定性与通用性,并指导如何构建简洁高效的传输对象,提升系统整体可靠性与性能。
|
4月前
|
数据可视化 JavaScript 前端开发
Three.js:开启Web 3D世界的魔法钥匙
Three.js是基于WebGL的JavaScript 3D库,简化了网页中3D图形的创建与渲染。它提供场景、相机、光照、动画等完整架构,支持丰富几何体、材质及高级特效,助力开发者轻松实现交互式3D可视化。
478 6
|
Java 调度
ScheduledThreadPoolExecutor分析
ScheduledThreadPoolExecutor 是一种适用于延时或周期性任务调度的线程池。它继承自 ThreadPoolExecutor,具备更强大的功能,可通过设定参数实现周期性任务调度。 内部实现中,`ScheduledFutureTask` 是关键类,通过 `run` 方法实现任务的循环调度与时间管理。`DelayedWorkQueue` 提供延迟队列功能,利用堆结构确保任务按优先级执行,并通过条件变量实现精确的延迟控制。整体设计结合了循环调度与延迟机制,满足高效的任务管理需求。
200 1
|
6月前
|
监控 前端开发 Java
Vert.x 响应式应用框架技术详解与实践指南
本文档全面介绍 Vert.x 响应式应用框架的核心概念、架构设计和实践应用。作为一款基于 JVM 的高性能响应式编程工具包,Vert.x 提供了轻量级、非阻塞的编程模型,能够处理大量并发连接而保持低资源消耗。本文将深入探讨其事件驱动架构、响应式编程模式、集群机制以及微服务支持,帮助开发者构建高性能的响应式应用系统。
532 6