性能专题:性能测试实施全过程指南

本文涉及的产品
性能测试 PTS,5000VUM额度
简介: 性能专题:性能测试实施全过程指南

1. 前言


本文是公号内性能专题,更新的第四篇,前三篇可参照上述。本想从理论到实践,以循序渐进的形式为大家分享介绍性能的知识体系,《性能专题之服务端测试》这部分,内容其实已经编写整理差不多了,完整文章列表如下:

微信图片_20220523195759.png


但从前三篇的反馈来看,貌似大部分读者对理论的部分并不太感兴趣。虽然说实践很重要,但如果缺乏理论基础,真正实施起来也会变得毫无章法。


考虑到公号内大部分读者的偏好,本次推文,将作为服务端性能测试理论这部分的最后一篇《性能测试实施全过程指南》。从下一篇开始将结合服务端性能测试的两款常用工具进行工具实战操作:Jmeter和Locust。


关于Locust框架连载内容提前预告

微信图片_20220523195827.png


看到框架大纲,就问你期不期待,对于内容期待的读者,可在下方留言。

对大纲中5~10章节未分享的内容感兴趣的读者,可在公号后台留言回复me,联系笔者。

2. 开篇:总体策略


通过制定性能测试实施指南,从技术角度对性能测试实施过程中所涉及到的关键技术进行规范,能更好地从技术上来规避系统上线后的风险、评估线上系统的真实能力、根据业务模型摸底线上能力以提前应对。


该篇的性能测试实施指南,基本能适用于所有需要性能测试的项目。对性能测试实施过程能起到非常重要作用,整个实施过程主要包括有:

  1. 系统环境
  2. 测试指标
  3. 业务模型
  4. 数据量
  5. 测试模型
  6. 测试类型
  7. 脚本(API)
  8. 场景
  9. 监控
  10. 瓶颈分析
  11. 调优

3. 系统环境


3.1 分析

系统环境常分为生产环境、测试环境等。两个环境的方案各有其优缺点,生产环境衡量的精准度较高,参考效果更好,但是需要清理相关的测试数据(同时要保证数据删除的完整性,基础数据的构造参考后续数据量部分)或者BI统计的时候过滤,或者更彻底的方案是参考阿里首创的全链路压测方式,生产环境的压测尽量挑选在低峰期进行,避免对生产业务造成影响。

微信图片_20220523195914.png

单独的测试环境风险可控,难点在环境的构建上,规模和生产一致的成本也是最高的,所以一般而言有通过等比构建(1/2,1/4,1/8等),甚至是生产环境中部分应用独立部署测试集群,数据库共用的方式,此外测试环境需要从生产环境中导入脱敏的基础数据,比如至少是最近半年或者1年的,保持其整体的数据关联性,这个对于压测的准确度和参考性也很重要。


3.2 风险

测试环境的风险主要体现在跟生产的差异度,测试结果的参考价值会打一定程度的折扣,可以视自身情况选择合理的方式,比如看重入口网络的检验的,可以测试环境和生产环境共享入口。对测试环境系统平台、中间件、数据库等不熟悉和了解,也会导致瓶颈不易分析、不易调优等。



3.3 测试环境预研


测试环境调研,需要调研如下内容:

  • 系统架构:系统如何组成的,每一层功能是做什么的,与生产环境有多大差异,主要为后面进行瓶颈分析服务和生产环境性能评估,这个很重要。
  • 操作系统平台:操作系统是哪种平台,进行工具监控。
  • 中间件:哪种中间件,进行工具监控和瓶颈定位。
  • 数据库:哪种数据库,进行工具监控和瓶颈定位。
  • 应用:启动多少个实例,启动参数是多少,进行问题查找和瓶颈定位。



3.4 测试环境搭建


在熟知以上问题的前提下,测试环境搭建应尽量满足如下规范:

  • 测试环境架构与生产环境架构完全相同
  • 测试环境机型与生产环境机型尽量相同,云化的资源确保是同规格ECS或者容器
  • 测试环境软件版本与生产环境软件版本完全相同,版本主要包括:操作系统、中间件相关、数据库、应用等
  • 测试环境参数配置与生产环境完全相同,参数主要包括:操作系统参数、中间件参数、数据库参数、应用参数
  • 测试环境基础数据量与生产环境基础数据量需在同一个数量级上。
  • 只能减少测试环境机器台数,并且需要同比例缩小,而不能只减少某一层的机器台数。
  • 理想的测试环境配置是生产环境的1/2,1/4。


4. 测试指标


4.1 分析


详细的测试指标,可参考:性能专题:一文搞懂性能测试常见指标

一般来说,会将测试指标分为:业务指标、资源指标、应用指标、前端指标


  • 业务指标:如:并发用户数、TPS(每秒处理请求数)、成功率、响应时间。
  • 资源指标:如:CPU资源利用率、内存利用率、I/O、内核参数(信号量、打开文件数)等。
  • 应用指标:如:空闲线程数、数据库连接数、GC/FULL GC次数、函数耗时等。
  • 前端指标:如:页面加载时间,网络时间(DNS,连接时间、传输时间等)。


4.2 风险

不同用户对指标类型和期望值是不一样的,需要提前针对不同角色的人员进行指标调研,设定阈值,测试出系统在阈值下的性能,瓶颈定位及调优。未提前关注测试指标,将会导致测试结果不是相关人员需要的,结果是无效的。



4.3 业务指标


业务响应时间(Response Time):这个指标所有相关人员都明白其含义,业务部门更需要此指标的具体值,一般情况下,不同系统的业务响应时间期望值是不同的,1秒以内最佳;像淘宝系统业务RT基本在几十毫秒以内。

业务处理能力(Transaction Per Second):  这个指标是衡量系统的处理能力的一个非常重要的指标,TPS可以参照同行业系统和结合具体业务,中小企业TPS值为50~1000笔/秒,银行TPS值为1000~50000笔/秒,淘宝TPS值为30000~300000笔/秒。

成功率:  这个指标是衡量系统处于压力下,业务的成功率,一般业界成功率要大于99.6%。


4.4 资源指标


一般情况下,系统资源指标也不能超过瓶颈值,例如CPU资源利用率<=75%,内存无SWAP, 磁盘和网络I/O不能自身处理能力。理想的情况下,当系统压力上不去的时候,资源成为瓶颈(正常情况下,非其他瓶颈情况下导致),这样的话加资源,系统处理能力还会上升的,但是遗憾的是,很多系统性能测试资源都没达到瓶颈的时候,压力就上不去了。


5.  业务模型


5.1 分析


系统有很多业务,每种业务逻辑和业务量是不一样的,消耗系统的资源也不一样,因此业务种类、业务占比决定了系统的处理能力,业务模型在性能测试中起着关键性的作用。以电商场景为例,不同的促销形式和主推的类目决定了不同的容量整体配比,那么精准地将流量落地在PTS上进行压测拿到系统的木桶最短板可以更好的利用机器资源达到业务目的。

微信图片_20220523200001.png


5.2 风险


业务模型中业务和占比选取不对,跟生产差异非常大,直接导致测试结果没有任何参考价值,并且容易误导对系统处理能力的判断。有些业务的业务量虽然占比很低,但一旦突变,对系统也是致命的,这些业务在性能测试中也需要关注。



5.3 规范


系统中的典型业务如何选取一般情况下遵循的规则是选取业务量高的、经常使用的、有风险的、未来有增长趋势的业务作为系统的典型业务。已经上线的系统可以通过高峰时段历史业务量和生产问题性能来评估,对于即将上线的系统可以通过调研和单交易资源消耗的结果来评估。


5.4 已上线系统

  • 搜集生产上不同高峰时间段的业务种类和业务量,每个时间段的业务种类和业务量是否有很大的差异,如有的话,必须有多个业务模型;差异不大的,可以只用一个业务模型。
  • 搜集生产上高峰时间段资源消耗和资源异常的时间点,从中捕获资源消耗高和异常的原因,可能是由于某种”不起眼”的业务导致。
  • 搜集生产问题,进行分析,如果是由于某种业务导致而且以前性能测试的时候忽略此笔业务,那么这笔业务的风险是非常大的,需要后续性能测试将此业务加入到业务模型中。



5.5 未上线系统

  • 通过调研,确定业务种类和业务占比
  • 通过调研,确定是否在业务促销等活动中,某些业务有突变的可能。
  • 通过测试结果,确定每笔业务的资源消耗,如果某些业务虽然占比低,但资源消耗非常大,那么需要适当的调整此业务占比。


6.  数据量


6.1 分析


数据量主要包括基础数据量(或者叫历史数据量、垫底数据量、数据库中已有的数据量)和参数化数据量,数据量在性能测试中起到非常重要的作用。对于在数据库中只有几条记录和有几亿条记录里面查询信息,那么结果肯定相差非常大的,随着业务量的增长,记录也越来越多,因此使用性能测试环境时,需要保持跟生产上相同级别的数据量;如果采用在生产环境中插入测试账户的方式,可以一定程度解决环境真实性和基础数据量同量级的问题。阿里全链路压测的方式对于基础数据量的要求和上述类似。然后,我们在测试的时候需要考虑参数数据量的大小和数据分布的问题。

微信图片_20220523200031.png


6.2 风险


如果基础数据量跟生产环境的基础数据量不在同一个数量级上,将会导致相关指标例如响应时间比生产上快很多,不真实,甚至导致测试结果没有参考意义。如果参数化数据量过少、未考虑数据分布的情况,将会导致测试结果不真实,甚至测试结果没有参考意义。生产环境中插入测试账户的方式,需要考虑数据准备的完整性问题,还有清理的逻辑需要完整。全链路压测的方式需要投入较大的改造成本,同时包括后续的持续迭代维护。



6.3 基础数据量


如果是测试环境,基础数据量需要跟生产环境基础数据量保持在同一个数据量级上,一般情况下需要考虑未来三年数据量增长趋势,如果增长过快需要在测试环境造非常多的数据。



6.4 参数化数据量

  • 参数化数据量尽可能的多,必要的情况下,可以清除缓存或者用写代码的方式提供参数化。
  • 参数化数据分布,如果业务有明显的地域等分布的特征,需要考虑数据分布的情况。


7. 测试类型


7.1 分析


测试类型主要分为负载测试、压力测试、单交易基准测试、混合交易负载测试(容量测试)、混合交易稳定性测试、混合交易可靠性测试、批量测试等。每种测试类型针对不同的目的,可以根据生产系统现实情况进行选择。


7.2 风险


缺少某种测试类型,将会导致现实生产系统某种场景没有测到,发生风险,例如:系统崩溃、响应时间慢等。


7.3 规范

如果时间充足,建议大部分测试类型都需要测试一下,也可以参考以下规范:

  • 单交易基准测试:可选
  • 单交易负载测试:可选,未上线系统建议做负载,看资源消耗
  • 混合交易负载测试(容量测试):必须
  • 混合交易压力测试:可选
  • 混合交易稳定性测试:必须
  • 混合交易可靠性测试:可选
  • 批量测试:可选
  • 批量测试对混合交易影响测试:可选


8. 串联链路


8.1 分析


串联链路是指一组含有某种业务含义的压测 API 的有序集合(类似事务),串联链路是用来模拟用户侧的业务操作,模拟的正确与否直接影响着系统的性能,模拟业务操作的时候,需要参数化数据。


8.2 风险


业务没有做成功或业务逻辑与实际生产环境差距太大将会导致测试结果没有参考价值。


8.3 规范

  • 跟生产上业务规则一致编排串联链路。
  • 在关键地方校验服务器返回值,为压测API(指一条由用户行为触发的端上请求)添加断言。
  • 数据尽量参数化、数据量尽可能的多。


9. 场景


9.1 分析


压测场景是若干个基于 HTTP/HTTPS 的 URL/API 的组合,用于模拟现实生产环境中业务场景,包括施压模式、压力递增方式、运行时间等。场景模拟需要跟生产上场景相一致,特别是在一段时间内,测试出来的各业务TPS占比跟生产上高峰时候业务占比一致。


9.2 风险

场景的风险主要体现在测试出来的业务TPS占比需跟生产上业务占比一致,在业务比例偏离严重的情况下,将会导致测试结果不真实或者无效,不能反映生产上的业务场景。



9.3 规范

测试结果中各业务TPS占比需跟生产上业务占比(业务模型)相一致,如何才能保证一致呢?可以使用PTS特有的RPS模式(Request Per Second,直接测试吞吐能力):例如:A和B两笔业务,占比为1:4,响应时间分别为1ms,100ms,那么只需要通过PTS给A和B两个接口按照1:4比例设置请求数(TPS)施压即可;如果使用传统的并发模式,A和B的并发需要经过换算确保比例是1:400,使得最终与生产上保持一致的业务模型。

10. 监控


10.1 分析

监控的目的主要是为进行性能测试分析服务的,完善的对系统进行监控,针对瓶颈定位起到”事半功倍”的效果。一般来说,需要针对操作系统、中间件、数据库、应用等进行监控,每种类型的监控尽量指标全面。

微信图片_20220523200135.png



10.2 风险

没有完善的系统监控,将会导致性能分析无从下手,定位不出系统瓶颈,根本不知道从哪进行调优。



10.3 规范

操作系统:CPU(User,Sys,Wait,Idle)利用率,内存利用率(包括Swap),磁盘I/O,网络I/O,内核参数等

中间件:线程池、JDBC连接池、JVM(GC/FULL GC/堆大小)

数据库: 效率低下SQL、锁、缓存、会话、进程数等

应用:方法耗时、同步与异步、缓冲、缓存


一般可以配合APM工具(如ARMS)进行中间件、数据库、应用层面的问题定位。

微信图片_20220523200159.png

11. 瓶颈分析


11.1 分析


瓶颈定位的目的是对系统中存在的瓶颈点进行分析,为调优做准备,系统的性能瓶颈点主要分布在操作系统系统资源、中间件参数配置、数据库问题以及应用算法上,对于有针对性的进行调优,有利于系统性能的提升。



11.2 风险

当系统的瓶颈点不能被分析出来以后,新业务上线或者核心业务就存在风险,这种风险有可能导致业务高峰的时候,系统性能体验差,甚至“崩溃”。



11.3 规范


分析系统的瓶颈点遵循的规则如下:

  • 操作系统资源消耗:CPU、Memory、Disk I/O、Network I/O
  • 中间件指标:线程池(Thread Pool)、数据库连接池(JDBC)、JVM(GC/FULL GC/堆大小)
  • 数据库指标:效率低下SQL、锁等待/死锁、缓存命中率、会话、进程等
  • 应用:方法耗时、算法、同步和异步、缓存、缓冲
  • 压力机:压力机资源消耗,一般情况下,压力机成为瓶颈的可能性非常低。PTS压力机有保护和调度机制不用单独关注。


12. 调优


12.1 分析


调优的目的是提升系统的性能,针对系统的“瓶颈点”对症“下药”,通过测试验证系统的性能有多大的提升。



12.2 风险

未进行调优的系统,系统上线后,可能会出现客户体验差的效果,甚至导致系统“崩溃”的风险。



12.3 规范

系统调优遵循的规则如下:

  • 中间件调优:线程池、数据库连接池、JVM。
  • 数据库调优:效率低下SQL、死锁和锁等待、缓存命中率,进程和会话参数。
  • 应用调优:方法耗时、算法、同步和异步、缓存、缓冲。
  • 系统资源:一般情况下,系统资源(CPU\大部分是由应用和参数设置不合理导致的,并非系统资源真的不够”用”。


相关实践学习
通过性能测试PTS对云服务器ECS进行规格选择与性能压测
本文为您介绍如何利用性能测试PTS对云服务器ECS进行规格选择与性能压测。
目录
相关文章
|
1月前
|
机器学习/深度学习 人工智能 监控
提升软件质量的关键路径:高效测试策略与实践在软件开发的宇宙中,每一行代码都如同星辰般璀璨,而将这些星辰编织成星系的过程,则依赖于严谨而高效的测试策略。本文将引领读者探索软件测试的奥秘,揭示如何通过精心设计的测试方案,不仅提升软件的性能与稳定性,还能加速产品上市的步伐,最终实现质量与效率的双重飞跃。
在软件工程的浩瀚星海中,测试不仅是发现缺陷的放大镜,更是保障软件质量的坚固防线。本文旨在探讨一种高效且创新的软件测试策略框架,它融合了传统方法的精髓与现代技术的突破,旨在为软件开发团队提供一套系统化、可执行性强的测试指引。我们将从测试规划的起点出发,沿着测试设计、执行、反馈再到持续优化的轨迹,逐步展开论述。每一步都强调实用性与前瞻性相结合,确保测试活动能够紧跟软件开发的步伐,及时适应变化,有效应对各种挑战。
|
2月前
|
测试技术 数据库 UED
Python 性能测试进阶之路:JMeter 与 Locust 的强强联合,解锁性能极限
【9月更文挑战第9天】在数字化时代,确保软件系统在高并发场景下的稳定性至关重要。Python 为此提供了丰富的性能测试工具,如 JMeter 和 Locust。JMeter 可模拟复杂请求场景,而 Locust 则能更灵活地模拟真实用户行为。结合两者优势,可全面评估系统性能并优化瓶颈。例如,在电商网站促销期间,通过 JMeter 模拟大量登录请求并用 Locust 模拟用户浏览和购物行为,可有效识别并解决性能问题,从而提升系统稳定性和用户体验。这种组合为性能测试开辟了新道路,助力应对复杂挑战。
113 2
|
1月前
|
监控 测试技术 PHP
性能和压力测试
【10月更文挑战第10天】性能和压力测试
113 60
|
2月前
|
缓存 Java 测试技术
谷粒商城笔记+踩坑(11)——性能压测和调优,JMeter压力测试+jvisualvm监控性能+资源动静分离+修改堆内存
使用JMeter对项目各个接口进行压力测试,并对前端进行动静分离优化,优化三级分类查询接口的性能
谷粒商城笔记+踩坑(11)——性能压测和调优,JMeter压力测试+jvisualvm监控性能+资源动静分离+修改堆内存
|
1月前
|
测试技术 PHP 开发工具
php性能监测模块XHProf安装与测试
【10月更文挑战第13天】php性能监测模块XHProf安装与测试
31 0
|
2月前
|
敏捷开发 安全 测试技术
软件测试的艺术:确保质量与性能的平衡之道
【9月更文挑战第24天】在软件开发的海洋中,测试是导航灯塔,指引着项目安全抵达质量的彼岸。本文将深入探讨软件测试的核心原则、方法论以及如何通过精心设计的测试策略来保障产品的可靠性和性能。我们将从测试的基础知识出发,逐步深入到高级测试技巧,最终展示如何通过实际案例来应用这些知识以确保软件的成功交付。
|
2月前
|
测试技术 Python
软件测试的艺术:确保质量与性能
【9月更文挑战第19天】在数字化时代,软件已成为我们生活的一部分。然而,随着软件复杂性的增加,如何确保其质量和性能成为了一个挑战。本文将探讨软件测试的重要性,介绍常见的测试类型和策略,并提供实用的代码示例来帮助读者更好地理解和应用这些测试方法。无论你是开发人员、测试工程师还是项目管理者,这篇文章都将为你提供有价值的见解和技巧。
|
2月前
|
存储 Java 关系型数据库
“代码界的魔法师:揭秘Micronaut框架下如何用测试驱动开发将简单图书管理系统变成性能怪兽!
【9月更文挑战第6天】Micronaut框架凭借其轻量级和高性能特性,在Java应用开发中备受青睐。本文通过一个图书管理系统的案例,介绍了在Micronaut下从单元测试到集成测试的全流程。首先,我们使用`@MicronautTest`注解编写了一个简单的`BookService`单元测试,验证添加图书功能;接着,通过集成测试验证了`BookService`与数据库的交互。整个过程展示了Micronaut强大的依赖注入和测试支持,使测试编写变得更加高效和简单。
76 4
|
3月前
|
消息中间件 Kafka 测试技术
【Azure 事件中心】使用Kafka的性能测试工具(kafka-producer-perf-test)测试生产者发送消息到Azure Event Hub的性能
【Azure 事件中心】使用Kafka的性能测试工具(kafka-producer-perf-test)测试生产者发送消息到Azure Event Hub的性能
|
3月前
|
监控 网络协议 安全
在Linux中,如何进行系统性能的峰值测试?
在Linux中,如何进行系统性能的峰值测试?
下一篇
无影云桌面