tegg v3 - 性能飞跃

简介: tegg v3 - 性能飞跃

编者按:本文作者是蚂蚁集团前端工程师零弌,介绍了 tegg v3 究竟有多快,快在哪,以及 tegg v3 如何做到性能飞跃。

 AsyncLocalStorage 与 eggjs

AsyncLocalStorage [1] 可以在一个 AsyncFunction 以及其相关的异步操作内安全的获取到在 store 内存储的变量。我们通过一段简单的代码就可以看到其演示效果。

AsyncLocalStorage 演示

const http = require('http');
const { AsyncLocalStorage } = require('async_hooks');
const asyncLocalStorage = new AsyncLocalStorage();
function logWithId(msg) {
  const id = asyncLocalStorage.getStore();
  console.log(`${id}: `, msg);
}
let idSeq = 0;
http.createServer((req, res) => {
  asyncLocalStorage.run(idSeq++, () => {
    logWithId('start');
    setImmediate(() => {
      logWithId('finish');
      res.end();
    });
  });
})
.listen(8080);

发起两次 HTTP 请求

curl http://127.0.0.1:8080
curl http://127.0.0.1:8080

打印内容为

0:  start
0:  finish
1:  start
1:  finish

AsyncLocalStorage 实现原理

nodejs 通过 v8 提供的 Promise lifecycle hooks [2] 实现了 Promise 执行追踪 [3] 。也就是说在一个 Promise 实例化、resolve、reject、then、catch 时均能被追踪到,AsyncLocalStorage 通过这些 hook 将 asyncId 进行了传播,因此可以通过一个 storage 在异步函数中安全的获取到当前的上下文变量。

node 中除了 Promise 之外还有 timer、fs、net 这些模块也能执行移步操作,比如上面演示代码中就是有 http server 和 setTimeout。node 通过 AsyncResource [4] 这层抽象对这些方式进行了实现,如果有自己的 addon 实现,也可以通过这个类来实现。

egg

koa 已支持 [5] ,通过 asyncLocalStorage 参数开启。

egg 已支持 [6] ,通过 app.currentContext 即可获取当前 egg context。

 Benchmark

测试地址:https://github.com/eggjs/tegg_benchmark/actions/runs/4025979558

测试场景

项目规模测试

通过在项目里创建大量的 controller 和 service 来模拟项目规模。Benchmark 分别测试了 1, 10, 100, 1000, 10000 个 controller/service 的情况。

业务复杂度测试

通过在 controller 访问 service 来模拟业务复杂度。Benchmark 分别测试了 1, 10, 100, 1000, 10000 个 service 的情况。

结论

  • tegg v3 不会因为项目规模扩张而引起性能衰退。
  • tegg v3 因为业务复杂度扩张而引起的性能衰退比 egg/tegg v1 慢。

Profile

CPU

egg 项目规模复杂度(1w)

性能热点集中在 egg 中的 defineProperty 和 ClassLoader,原因是 controller/service 过多导致。

tegg 项目规模复杂度(1w)

热点耗时在 node 本身,gc、async_hook。

内存

egg 项目规模复杂度(1w)

由于 controller/service 数量过多,导致存在内存分配瓶颈。可以看到 controller 每次实例化都会占用大量内存。


tegg 项目规模复杂度(1w)

目前内存压力存在于 async_hook。

  如何飞跃

tegg 注入原理

tegg 实例代码,HelloWorldController 注入了 Foo 类, Foo 类注入了 Tracer 类。

@HTTPController()
class HelloWorldController {
  @Inject()
  private readonly foo: Foo;
}
@Context()
class Foo {
  @Inject()
  private readonly tracer: Tracer;
}

请求在进入框架执行阶段后,首先会找到入口类。本例中为 HelloWorldController,并根据对象图实例化所有的对象。

tegg v1 性能瓶颈

每个请求需要创建 10001 个对象,需要分配大量的内存,导致 gc 压力很大。

tegg v3 优化原理

减少实例化对象,看示例代码,HelloWorkerController, Foo 与请求上下文是无关的,只有 Tracer 是与请求上下文相关。因此 HelloWorldController, Foo 不应该需要每次都实例化,这对于 CPU 和 内存 都是利好。

使用 AsyncLocalStorage 来代理对象,HelloWorldController、Foo 将会改造成单例模式,如何在不同的请求中获取到正确的对象将会是一个问题。我们需要将 tracer 改造成一个代理,通过 ctxStorage 来获取到正确的对象。

优化后效果

从 10001 到 0。极大的降低了内存压力,tegg v1 的堆大小从 200M 到 1G 波动,tegg v3 可以稳定在 200M。

  tegg v3 代码改造

修改注解

仅需将 @ContextProto() 替换为 @SingletonProto。

~~@ContextProto()~~
@SingletonProto()
class Foo {
  @Inject()
  private readonly tracer: Tracer;
}

实现有状态

Foo 这个类的状态和当前上下文有关,如果改成 Singleton 模式,所有上下文中共享会导致对象用串了,所以需要保持 ContextProto。

@ContextProto()
class Foo {
  state: State;
  foo() {
    this.state = 'foo';
  }
  bar() {
    this.state = 'bar';
  }
}

单测改造

describe('test/index.test.ts', () => {
  let foo: Foo;
  beforeEach(async () => {
    foo = await app.getEggObject(Foo);
  });
  it('should work', () => {
    assert(foo.hello());
  });
});


🔗 相关链接

[1] https://nodejs.org/dist/latest-v18.x/docs/api/async_context.html#class-asynclocalstorage

[2] https://docs.google.com/document/d/1rda3yKGHimKIhg5YeoAmCOtyURgsbTH_qaYR79FELlk/edit

[3]https://nodejs.org/dist/latest-v18.x/docs/api/async_hooks.html#promise-execution-tracking

[4]https://nodejs.org/dist/latest-v18.x/docs/api/async_context.html#class-asyncresource

[5]https://github.com/koajs/koa/pull/1721

[6]https://github.com/eggjs/egg-core/pull/251

相关文章
|
2月前
|
机器学习/深度学习 算法 安全
量子计算的飞跃:重新定义计算能力的极限
【9月更文挑战第10天】量子计算作为颠覆性技术,正改变我们对计算能力的认知。本文深入探讨量子计算的基本原理及其飞跃性进展,包括量子霸权的实现和量子纠错技术的发展。量子计算不仅能够解决复杂问题、加强加密安全,还能推动科学发现。尽管面临挑战,其未来前景广阔,有望成为主流计算工具,开启全新计算时代。
|
3月前
|
人工智能
就AI 基础设施的演进与挑战问题之大模型推理中显存瓶颈的问题如何解决
就AI 基础设施的演进与挑战问题之大模型推理中显存瓶颈的问题如何解决
|
5月前
|
机器学习/深度学习 存储 人工智能
量子计算:计算能力的下一次飞跃
【6月更文挑战第18天】量子计算,基于量子力学,利用叠加和纠缠现象,以量子比特为单位,实现计算能力的跃升。当前,量子计算机已取得重大进展,如中国“九章二号”的量子优越性展示。全球竞相研发,预示着在模拟复杂系统、药物发现、金融加密及人工智能等领域有广泛应用潜力。尽管仍处早期,量子计算的未来前景充满无限可能。
|
6月前
|
量子技术
量子计算可靠性提升800倍!微软开启2级弹性量子计算新时代
【4月更文挑战第17天】微软Azure Quantum和Quantinuum团队在量子计算领域取得重大突破,将计算可靠性提升800倍,推动量子计算从NISQ阶段向可靠阶段迈进。研究团队通过逻辑量子比特和错误纠正技术,在捕获离子量子设备上实现低于物理错误率的逻辑错误率,为大规模容错量子计算机打下基础。实验在Quantinuum的H2处理器上进行,展示了[[7, 1, 3]]和[[12, 2, 4]]码的成功应用。尽管面临扩展到更大规模电路的挑战,这一成果为未来量子计算的实际应用带来希望。
51 1
量子计算可靠性提升800倍!微软开启2级弹性量子计算新时代
|
6月前
|
缓存 Dubbo 应用服务中间件
实现从10s到0.5s的飞跃,揭秘性能提升的秘诀
在数字时代,性能优化对各类技术系统和应用至关重要,关乎用户体验、效率和成本。某团队在面对系统响应慢的问题时,通过梳理逻辑、使用stopwatch排查,发现了数据库、连接池、日志打印和Dubbo配置等问题。他们优化了数据库的索引和锁机制,减少了日志打印的负担,调整了Dubbo的线程配置,并改进了日志组件,最终显著提升了系统性能。性能优化的方法包括代码优化、数据库优化、缓存技术、并发处理和资源管理,这是一个持续且需综合考虑稳定性和可靠性的过程。
54 2
|
6月前
|
监控 安全 物联网
相比4G,5G有那些优势满足工业4.0的技术需求
5G凭借其超高速率、超低延迟、高可靠性、大连接数等核心技术优势,有力满足了工业4.0对于实时通信、灵活生产、高效自动化及大规模物联网应用的需求。
162 0
|
6月前
|
机器学习/深度学习 人工智能 芯片
AI芯片设计与优化:算力提升、能耗降低与硬件加速器的发展趋势
AI芯片设计与优化:算力提升、能耗降低与硬件加速器的发展趋势
1165 0
|
机器学习/深度学习 人工智能 搜索推荐
Diffusion预训练成本降低6.5倍,微调硬件成本降低7倍!Colossal-AI完整开源方案低成本加速AIGC产业落地
Diffusion预训练成本降低6.5倍,微调硬件成本降低7倍!Colossal-AI完整开源方案低成本加速AIGC产业落地
215 0
|
机器学习/深度学习 存储 人工智能
数量级效率优势,原生适配AI计算:光芯片的下一个技术突破要来了
数量级效率优势,原生适配AI计算:光芯片的下一个技术突破要来了
312 0
数量级效率优势,原生适配AI计算:光芯片的下一个技术突破要来了
|
机器学习/深度学习 人工智能 达摩院
稳定、高效、敏捷:自适应人工智能的优势
当前,信息安全性、通信带宽和处理延迟方面的问题正在将AI从云驱动到边缘……
1042 0
稳定、高效、敏捷:自适应人工智能的优势