基于eBPF的云原生可观测性开源工具Kindling之Kindling-agent 性能测试评估

本文涉及的产品
应用实时监控服务-可观测链路OpenTelemetry版,每月50GB免费额度
可观测可视化 Grafana 版,10个用户账号 1个月
可观测监控 Prometheus 版,每月50GB免费额度
简介: Kindling-agent作为数据采集器,其性能如何想必是很多使用者关心的问题,本文将通过实际的压测数据来说明Kindling的性能。

背景

Kindling-agent是基于eBPF的云原生可观测性开源工具Kindling中采集端的组件,能够通过采集和分析内核事件,获取运行于同一宿主机上的其他服务的业务、网络等指标。其工作模式是在主机上以独立进程的方式收集所需数据,所以只需要我们在应用所在主机部署Kindling-agent即可启动相应能力,随后可以通过prometheus和grafana套件对不同机器上探针采集的数据进行整合分析和查看,当然也可以用其他工具获取数据并进行分析展示。尽管Kindling-agent基于eBPF的方式进行的监控方式减少了对被监控应用的侵入,但始终还是和用户应用共享同一台宿主机的CPU、内存、磁盘、网络等资源。这使得所有想要使用Kindling-agent的用户都想知道该工具在真实环境中的性能表现以及预期资源使用情况。Kindling项目进行了一系列的测试来验证该采集工具的性能表现,这些测试反应了Kindling-agent在不同压力下良好的性能表现和可靠性。

测试目标

  1. 检验高负载(5000 TPS)场景下,Kindling-agent对应用的性能影响和agent本身的资源使用情况。
  2. 检验常规负载(1000 TPS)场景下,Kindling-agent对应用的性能影响和agent本身的资源使用情况。

测试环境


内核版本



3.10.0-1160.53.1



CPU



Intel(R) Xeon(R) Platinum 8269CY CPU @ 2.50GHz,8C



内存



16G


Jmeter和Kindling-agent以K8S工作负载的方式进行部署,测试应用和Jmeter分别运行在两台CentOS7(fedora)上。

结果说明

1. 基线指测试应用在无探针安装时的进行压力测试获得的指标,包括以下信息:

  • machine-cpu: 机器总CPU使用总体百分比
  • machine-mem: 机器总内存使用总体百分比
  • application-cpu: 测试应用CPU使用核数
  • application-memory: 测试应用内存使用
  • application-latency: 测试应用请求延迟
  • application-tps:测试应用每秒事务数

2. 安装探针后的测试应用在压力测试时的性能指标。

3. 探针自身的性能损耗,包括CPU和内存使用,在一些较低内核版本的机器中,Kindling使用内核模块代替eBPF实现了相同的功能,你将会在测试中看到两种实现下不同的性能表现。

测试用例

用例1

为了验证Kindling-agent在高负载下的性能表现,用例1使用了Skywalking的benchmark1程序。该程序为一个常规的Springboot应用,对外提供HTTP服务,其预期TPS为5000,预期延时为85ms。Kindling会捕获该程序的异常/慢的请求数据(即Trace),并统计程序运行时间段内的关键性指标(Metric),如平均响应时间、错误率、请求字节数和请求数等。这些Trace和Metric能够有效的保障程序的可观测性。下面的测试结果中是待测程序在5000TPS下的性能表现,baseline表示未启用agent下的资源开销和性能表现。

1.png

在资源使用上,Kindling-agent 一共消耗了约0.64C来处理并统计 5000 TPS下的关键性能指标,并通过Prometheus暴露在HTTP接口上。对于应用程序的资源使用,在基线测试中,应用程序需要花费2.5C处理现有的业务请求,在部署了探针后,程序需要使用2.6C处理现有的业务请求,即相对于基线增加了4%的额外开销,内存方面则几乎没有影响。对于应用程序的服务表现,可以看到,在5000TPS的负载下,Kindling-agent对应用程序的响应时间和TPS的影响都非常小。大多数正常的业务都包含一定的处理逻辑,单节点吞吐量很少能够达到5000TPS。因此,对于大多数的业务应用来说,不需要担心Kindling-agent对应用本身的处理能力造成影响。

用例2

如之前所述,用例1中的TPS明显高于正常的用户应用。为此,测试用例2增加了处理每个请求时的CPU使用,并下调了请求压力,使该场景更接近于生产环境下的常规压力。

2.png

在资源使用上,Kindling-agent 一共消耗了 0.12C 用于数据处理和统计。

对于应用的资源使用,在1000TPS下,基线使用1.37C 处理现有的请求,安装agent后相较于基线几乎没有额外开销。服务表现方面,在1000TPS下,基线的响应时间为272ms , TPS为 1044 ; 安装agent后相较于基线几乎不变。总的来说,在常规负载下,Kindling-agent对用户应用几乎没有影响。

总结

上述用例说明Kindling可以在较低的资源开销下支持轻量化部署,且易于管理;能够深入分析请求到协议栈在内核执行情况;能够提供语言无关,应用无侵入的监控体验,为您的应用带来新一代的可观测能力。


测试原始数据详见:原始数据

KINDLING项目地址:KINDLING

欢迎对云可观测性感兴趣的小伙伴与我们联系:Kindling官网

相关实践学习
通过性能测试PTS对云服务器ECS进行规格选择与性能压测
本文为您介绍如何利用性能测试PTS对云服务器ECS进行规格选择与性能压测。
目录
打赏
0
0
0
0
2
分享
相关文章
测试工程师要失业?Magnitude:开源AI Agent驱动的端到端测试框架,让Web测试更智能,自动完善测试用例!
Magnitude是一个基于视觉AI代理的开源端到端测试框架,通过自然语言构建测试用例,结合推理代理和视觉代理实现智能化的Web应用测试,支持本地运行和CI/CD集成。
220 15
测试工程师要失业?Magnitude:开源AI Agent驱动的端到端测试框架,让Web测试更智能,自动完善测试用例!
一些适合性能测试脚本编写和维护的工具
一些适合性能测试脚本编写和维护的工具
194 59
移动端性能测试工具
移动端性能测试工具
322 2
Windows 竞技场:面向下一代AI Agent的测试集
【10月更文挑战第25天】随着人工智能的发展,大型语言模型(LLMs)在多模态任务中展现出巨大潜力。为解决传统基准测试的局限性,研究人员提出了Windows Agent Arena,一个在真实Windows操作系统中评估AI代理性能的通用环境。该环境包含150多个多样化任务,支持快速并行化评估。研究团队还推出了多模态代理Navi,在Windows领域测试中成功率达到19.5%。尽管存在局限性,Windows Agent Arena仍为AI代理的评估和研究提供了新机遇。
108 3
阿里云云原生应用组装平台BizWorks满分通过最新评估
阿里云BizWorks满分通过《基于云计算的业务组装平台能力成熟度模型》评测,获得优秀级(最高等级),广东移动联合阿里云BizWorks团队开展的组装式应用实践获得第三届“鼎新杯”数字化转型应用优秀案例一等奖。
372 3
构建多模态模型,生成主机观测指标,欢迎来战丨2024天池云原生编程挑战赛
本次比赛旨在如何通过分析 ECS 性能数据和任务信息,综合利用深度学习、序列分析等先进技术,生成特定机器的性能指标。参赛者的解决方案将为云资源管理和优化决策提供重要参考,助力云计算资源的高效稳定运行和智能化调度。
722 36
【Azure 事件中心】使用Kafka的性能测试工具(kafka-producer-perf-test)测试生产者发送消息到Azure Event Hub的性能
【Azure 事件中心】使用Kafka的性能测试工具(kafka-producer-perf-test)测试生产者发送消息到Azure Event Hub的性能
100 2
kubevela可观测体系问题之KubeVela云原生时代可观测性挑战的问题如何解决
kubevela可观测体系问题之KubeVela云原生时代可观测性挑战的问题如何解决
性能测试:主流性能剖析工具介绍
**性能剖析**是识别应用性能瓶颈的关键,涉及指标收集、热点分析、优化建议及可视化报告。常用工具有:**JConsole**监控JVM,**VisualVM**多合一分析,**JStack**分析线程,**FlameGraph**展示CPU耗时,**SkyWalking**分布式跟踪,**Zipkin**追踪服务延迟。这些工具助力开发人员提升系统响应速度和资源效率。
Java性能测试与调优工具使用指南
Java性能测试与调优工具使用指南

相关产品

  • 性能测试
  • AI助理

    你好,我是AI助理

    可以解答问题、推荐解决方案等