软件测试实验三 性能测试参考案例(下)

简介: 软件测试实验三 性能测试参考案例(下)

(1)添加用户自定义的变量:

右击 “测试计划/线程组”--“添加”--"配置元件"--"用户自定义变量"

(2)添加变量:

(3)调用:(在取样器http请求当中调用)

2)用户参数。

使用场景:用来模拟多个(少量多个用户 10)用户登录操作。

模拟三个用户去访问百度,访问百度时带两个参数

(name 和age) (张三、18)(李四、20)(王五、21)

(1)添加用户参数:右击 “线程组”--"前置处理器"--"用户参数"

(2)配置用户参数:

(3)调用用户参数(在取样器http请求中调用用户参数)

3)CSV数据文件设置。

使用场景:可以模拟多个用户(成百上千上万)的登录操作。

CSV文件配置参数化的实现步骤:

(1)定义CSV的文件数据。TXT文件修改扩展名为:CSV。

(2)添加 CSV 数据文件设置。右击 “测试计划/线程组”--“添加”--"配置元件"--"CSV 数据文件设置"。

(3)设置CSV数据文件配置

(4)http请求调用CSV文件中的变量名称

4. 完成测试计划(名字为: 断言练习.jmx),访问百度或其他网站。

言:让程序自动判断预期结果和实际结果是否一致。

JMeter中常用断言:响应断言。JSON断言。断言持续时间。

提示:

- JMeter在请求的返回层面有个自动判断机制(响应状态码)。

- 但是请求成功了,并不代表结果一定正确,因此需要检测机制提高测试准确性。

参考案例:

1)响应断言。

作用:对HTTP请求的任意格式的响应结果进行断言

案例:https://www.baidu.com

检查:让程序检查响应数据中是否包含“百度一下,你就知道”

位置:测试计划 --> 线程组--> HTTP请求 --> (右键添加) 断言 --> 响应断言

2)JSON断言

作用:对HTTP请求的JSON格式的响应结果进行断言

案例:http://www.weather.com.cn/data/sk/101010100.html

检查:让程序检查响应的JSON数据中,city对应的内容是否为:“北京”

位置:测试计划 --> 线程组--> HTTP请求 --> (右键添加) 断言 --> JSON断言

3)断言持续时间。

作用:检查HTTP请求的响应时间是否超出要求范围

案例:https://www.baidu.com

检查:让程序检查响应时间是否大于100毫秒

位置:测试计划 --> 线程组--> HTTP请求 --> (右键添加) 断言 --> 断言持续时间

参数介绍:

- 持续时间(毫秒):HTTP请求允许的最大响应时间(单位:毫秒)。 超过则认为失败

5. 完成测试计划(名字为: 定时器练习.jmx),访问百度或其他网站。

  1. 同步定时器。- 聚合报告。
  2. 常数吞吐量定时器。 - 聚合报告。

参考案例:

  1. 同步定时器。- 聚合报告。

同步定时器:阻塞线程(累积一定的请求),当在规定的时间内达到一定的线程数量,这些线程会在同一个时间点一起释放,瞬间产生很大的压力。

位置:测试计划 --> 线程组--> HTTP请求 --> (右键添加) 定时器 --> 同步定时器(ynchronizing Timer)

参数介绍:

- Number of Simulated Users to Group by:模拟用户组的数量,即指定同时释放的线程数数量。 若设置为0,等于设置为线程组中的线程数量

- Timeout in milliseconds:超时时间以毫秒为单位,即超时多少毫秒后同时释放指定的线程数; 如果设置为0,该定时器将会等待线程数达到了设置的线程数才释放,若没有达到设置的线程数会一直死等。如果大于0,那么如果超过Timeout in milliseconds中设置的最大等待时间后还没达到设置的线程数,Timer将不再等待,释放已到达的线程。默认为0

  1. 常数吞吐量定时器 - 聚合报告。

作用:让JMeter按指定的吞吐量执行,以每分钟为单位。

位置:测试计划 --> 线程组--> HTTP请求 --> (右键添加) 定时器 -->常数吞吐量定时器(Constant Throughput Timer)

参数介绍:

- Target throughput(in samples per minute):目标吞吐量。注意这里是每个用户每分钟发送的请求数

案例要求:

- 模拟用户真实的业务场景要求:20 QPS

- 如果线程数设置为1,则目标吞吐量设置为 20 * 60 = 1200

- 如果线程数设置为2,则目标吞吐量设置为 20 * 60 / 2 = 600

目录
相关文章
|
数据采集 监控 机器人
浅谈网页端IM技术及相关测试方法实践(包括WebSocket性能测试)
最开始转转的客服系统体系如IM、工单以及机器人等都是使用第三方的产品。但第三方产品对于转转的业务,以及客服的效率等都产生了诸多限制,所以我们决定自研替换第三方系统。下面主要分享一下网页端IM技术及相关测试方法,我们先从了解IM系统和WebSocket开始。
371 4
|
5月前
|
缓存 前端开发 JavaScript
性能测试指标拟定参考
本文介绍性能测试关键指标与实施要点,涵盖用户数、业务量、核心场景及性能指标(如TPS、响应时间、波动率)的调查方法,指导如何科学评估系统处理能力与稳定性。
|
人工智能 供应链 安全
AI辅助安全测试案例某电商-供应链平台平台安全漏洞
【11月更文挑战第13天】该案例介绍了一家电商供应链平台如何利用AI技术进行全面的安全测试,包括网络、应用和数据安全层面,发现了多个潜在漏洞,并采取了有效的修复措施,提升了平台的整体安全性。
744 4
|
监控 中间件 测试技术
『软件测试5』测开岗只要求会黑白盒测试?NO!还要学会性能测试!
该文章指出软件测试工程师不仅需要掌握黑盒和白盒测试,还应该了解性能测试的重要性及其实现方法,包括负载测试、压力测试等多种性能测试类型及其在保证软件质量中的作用。
『软件测试5』测开岗只要求会黑白盒测试?NO!还要学会性能测试!
|
测试技术 数据库连接 数据库
测试脚本的编写和维护对性能测试结果有何影响?
测试脚本的编写和维护对性能测试结果有着至关重要的影响,
215 1
|
前端开发 机器人 测试技术
【RF案例】Web自动化测试弹窗处理
在进行Web自动化测试时,常会遇到不同类型的弹窗,如ajax、iframe、新窗口及alert/Confirm等。这些弹窗可通过Selenium进行定位与处理。其中,ajax弹窗直接定位处理;iframe需先选中再操作;新窗口类似iframe处理;而alert/Confirm则需特殊方法应对。在Robot Framework中,需先定义并获取窗口后使用特定关键字处理。此外,还有部分div弹窗需在消失前快速定位。希望本文能帮助大家更好地处理各类弹窗。
423 6
【RF案例】Web自动化测试弹窗处理
|
分布式计算 大数据 Spark
大数据-95 Spark 集群 SparkSQL Action与Transformation操作 详细解释与测试案例(二)
大数据-95 Spark 集群 SparkSQL Action与Transformation操作 详细解释与测试案例(二)
186 1
|
存储 SQL 分布式计算
大数据-95 Spark 集群 SparkSQL Action与Transformation操作 详细解释与测试案例(一)
大数据-95 Spark 集群 SparkSQL Action与Transformation操作 详细解释与测试案例(一)
246 0
|
6月前
|
前端开发 Java jenkins
Jmeter压力测试工具全面教程和使用技巧。
JMeter是一个能够模拟高并发请求以检查应用程序各方面性能的工具,包括但不限于前端页面、后端服务及数据库系统。熟练使用JMeter不仅能够帮助发现性能瓶颈,还能在软件开发早期就预测系统在面对真实用户压力时的表现,确保软件质量和用户体验。在上述介绍的基础上,建议读者结合官方文档和社区最佳实践,持续深入学习和应用。
1357 10