性能测试工具选择策略——仿真度对比测评分析报告

本文涉及的产品
性能测试 PTS,5000VUM额度
简介: 基于 AI 的软件自动化测试工具的特征介绍

1、概述

在做性能测试时,网络上关于性能测试工具推荐有很多,到底如何选择一款性能测试工具比较好呢?网络上关于性能测试工具对比他们优缺点有很多描述,但主要是从:并发能力、资源监控、是否开源、是否支持录制、是否支持分布、实现语言、社区活跃度、脚本的维护、易用性、可扩展性、压测平台编码量等方面对比。但几乎没有人提到性能测试工具的仿真度能力。仿真度就是性能测试工具模拟客户端向服务端下发请求与客户端的相似能力。仿真度越高,测试获得的结果越可信。

本文宗旨是选择几款常用的性能测试工具进行仿真度对比测试,以此来帮助软件测试人员在工作中如何选择一款适合自己工作需要的性能测试工具。

性能测试工具比较多,限于作者时间有限,不能对每一款性能测试工具一一测试,计划挑三款性能测试工具相互对比测试。选择策略是:挑选国产一款,国外二款(商用和开源免费各选择一款)

国外的性能测试工具我们挑选国内最常用两款:
LoadRunner、Jemeter作为测试对象;国产的性能测试工具我们选择KylinTOP(B/S)作为测试对象。

性能测试工具一般支持的协议都非常多,不可能对每一种协议都做仿真度测评。国内常用的协议主要是HTTP协议,因此文本主要针对HTTP协议的仿真度进行测评。

文本所有通过wireShark抓包文件分析获得的瀑布图,在附录中均附有抓包文件及过程分析数据。

2、浏览器并发能力分析

在向浏览器地址栏输入一个URL地址回车时,浏览器呈现在我们眼前的是一个完整的页面。页面中有很多的元素(如:文字链接、按钮、输入框、图片等),这些元素都是浏览器从服务端获取的数据。浏览器获得这些元素按并行方式获取的(通过并行的HTTP请求获得),每个浏览器并行获取的能力也是不同的,详见下表:

浏览器 并发数
HTTP / 1.1 HTTP / 1.0
IE 11 6 6
IE 10 6 6
IE 9 10 10
IE 8 6 6
IE 6,7 2 4
火狐 6 6
Safari 3,4 4 4
Chrome 4+ 6 6

注:浏览器的并发能力引用:HTTPs://www.cnblogs.com/sunsky303/p/8862128.html

文章中提到的注册表中的:MaxConnectionsPerServer(**HTTP
1.1MaxConnectionsPer1_0Server(HTTP
1.0)**配置项,作者使用的是wind10,自带ie11浏览器,其中MaxConnectionsPerServer=10,但是浏览的并发量并没有增加到10,仍为6。

3、仿真度的重要性

性能测试工具的工作流程:录制脚本-新建测试计划(新建测试场景)-执行测试计划-分析测试结果。工作原理是:启动一个线程循环执行录制脚本,相当于仿真一个真实在线用户不停的循环操作。那么这个用户的仿真度就与执行脚本的方式具有强相关性。执行方式与浏览行为越接近,那么它的仿真度越高。

性能测试工具的新建测试计划(场景)步骤可以选择的属性有:
运行时间或迭代次数、并发用户数以及用户新增或下降方式等。其中“运行时间或迭代次数”和并发用户数是性能测试过程中的两个重要的属性特征。用于测试服务器在指定的时间段内可承受的最大并发用户数。直接反应服务器性能指标的参数是:HTTP请求数/秒、吞吐量(Mb/秒),但是这两个属性不能按业务层面反应服务器的性能,如:最大并发用户数是一个业务层面的性能指标。因为业务不同,浏览器的并发请求数和请求时序不同,且对应的HTTP类型也不同。有些HTTP的请求是比较消耗资源的,尤其是对业务复杂处理的HTTP请求。

性能测试工具的仿真度的高低,直接体现了性能测试工具对真实业务的仿真,包括HTTP请求并发量、并发时序,业务类型等。仿真度越高测试结果获得的数据越可信。

如下图所示,每一个用户就代表一个线程,每一个线程就是对录制脚本的循环执行。下图中的每一个方格就代表对录制脚本的一次完整执行。红框标志出某一刻服务器承受的所有并发用户数,它所承受的HTTP并发请求总数等于每一个方格此时此刻的HTTP并发数总和,用公式表达就是:

服务器承受的HTTP并发总数=(1-2用户HTTP请求并发数)+(2-2用户HTTP请求并发数)+……+(m-2用户HTTP请求并发数)。

从这个表达式可以看出,服务器承受的HTTP并发总数与每一个方式格的并发数相关,即录制脚本在此时运行的并发数。如果性能测试工具按照脚本HTTP请求,顺序执行HTTP请求(最不理想的情况),那么它的并发总数就是:m,如果按浏览器的最大并发数运行,它的并发总数就是:6m(浏览器一般可以最大并发6个),相差5倍。在服务器承受的HTTP并发能力一定的情况下,脚本运行的并发数,决定了并发用户数。那么如何才能体现真实的并发用户数呢,只有在性能测试工具执行脚本的HTTP请求时,HTTP并发数、时序完全与浏览器完全相同时,才能最能真实的反映出服务器承受的最大并发用户数。

4、测试设计分析

性能测试工具的工作原理是仿真浏览器该问服务端。每一个浏览器相当于一个使用者(用户)。性能测试工具通过多线程实现模拟多用户的访问(相对比较容易实现),每个用户通过模拟浏览器的行为仿真实用户行为(实现难度较大)。浏览器的行为包括:HTTP请求、以及HTTP请求之间的关系,这些关系通过浏览器的瀑布图可以观查到也可以通过wireShark抓包工具来分析获得。本文的重点旨在通过测试对比找出最佳的用户仿真能力的性能测试工具。

用户行为即浏览器的HTTP请求行为,HTTP请求行为主要包括:

  1. HTTP请求顺序,包括:并行和串行两种行为,如下所示:waterfall中的横向图代表一个HTTP请求的开始与结束时间。串行的HTTP请求,表示只有前面的HTTP请求返回响应值后,再请求下一个HTTP请求。并行HTTP请求,可以同时下发请求。
  2. HTTP请求的数量,如下图所示每一个页面都由多个HTTP请求组成。
  3. HTTP的请求类型,其中包括:静态请求(如;css,js,html,jsp,png)和动态请求(后台接口)

如果性测试工具如果能对上述三种HTTP行为模拟的越接近,则性能测试工具的仿真度越高,测试结果与真实能力越接近。因此本文就围绕这三种能力进行对比测试。

图2-01

5、测试环境

5.1、试环境配置

操作系统 CPU 内存
kylinTOP Window 10 专业工作站版 64bit Intel(R) Core(TM) i5-7300U CPU @ 2.60GHz 8GB
LoadRunner 12.55 Window 10 专业工作站版 64bit Intel(R) Core(TM) i5-7300U CPU @ 2.60GHz 8GB
LoadRunner 11 Windows 7 专业版,32位 Intel(R) Core(TM) i5-7300U CPU @ 2.60GHz (2 CPUs), ~2.7GHz 2524MB RAM 虚拟机
Jemeter Window 10 专业工作站版 64bit Intel(R) Core(TM) i5-7300U CPU @ 2.60GHz 8GB

5.2、测试工具

工具名称 版本 工具作用 工具介绍
kylinTOP 1.8 性能测试工具 深圳市奇林软件有限公司成立于2016年,是一家从事测试工具开发与测试服务的公司。kylinTOP是一款国产的性能测试工具。
Jmeter 5.1 性能测试工具 Apache软件基金会(ASF)是一家总部位于美国的非营利性慈善组织。ASF的所有产品都通过公共论坛的在线协作开发,并从美国境内的中央服务器分发。Jmeter是ASF的一款开源免费软件 ,在国内被很多中小公司当作性能测试工具广泛使用。
LoadRunner 11.04.0.0,12.55 性能测试工具 惠普(HP)是世界最大的信息科技(IT)公司之一,成立于1939年,总部位于美国加利福尼亚州帕洛阿尔托市。LoadRunner是目前国内使用最广泛的性能测试工具。
Wireshark 3.0.5 网络抓包工具 美国自由软件基金下的一款优秀的开源免费协议分析软件,,Wireshark(前称Ethereal),是目前全世界使用最广泛的网络封包分析软件之一。
Internet Explorer 11 11.805.17763.0 浏览器 Windows系统自带的一款web浏览器
Internet Explorer 9 9.0.8112.16421 浏览器 Windows系统自带的一款web浏览器
Google Chrome 76.0.3809.87(正式版本)(32 位) 浏览器 Google公司的一款世界著名的浏览器

5.3、测试环境组网

图5-3-01

5.4、被测试对象

HTTP://cloud.10oa.com/trial/view/catalogue.aspx?sid=132000&name=%u6211%u7684%u5DE5%u4F5C%u8BA1%u5212

HTTP://cloud.10oa.com/trial/view/catalogue.aspx

注:这两个地址内容是一样的,kylinTOP使用的是第1个地址,Jmeter使用的是第2个,因为Jmeter录制时无法解析第1个地址,弄了很久才发现把后的参数去除才可以录制。后续loadRunner均使用第2个地址,以免出现相同的问题。

图5-4-01

打开该主页共:16个请求,用时:815ms

6、HTTP请求仿真度对比

6.1、测试思路

步骤1:Loadrunner、kylinTOP、JMeter具录制同一个网页

步骤2:调试脚本回放,使之请求内容相同(录制能力不同录制结果也不同,这里只对比双方都能录制的请求)

步骤3:建立测试计划,各自运行脚本一次,运行的过程通过(wireShark抓包)

步骤4:通过对wireShark网络抓包结果分析HTTP请求的顺序,然后进行相互对比。

注:kylinTOP工具能够记录录制和执行过程中的HTTP请求顺序,但loadrunner无此功能需要通过抓包分析。

6.2、对比基线

6.2.1、请求列表

序列 Info
1 GET /trial/view/catalogue.aspx?sid=100000&name=%u6211%u7684%u684C%u9762 HTTP/1.1
2 GET /trial/awesome/css/font-awesome.min.css HTTP/1.1
3 GET /trial/skin/view.css HTTP/1.1
4 GET /trial/common/viewCn.js HTTP/1.1
5 GET /trial/common/view.js HTTP/1.1
6 GET /trial/common/10oa.png HTTP/1.1
7 GET /trial/images/dotBlue.gif HTTP/1.1
8 GET /trial/images/dotGreen.gif HTTP/1.1
9 GET /trial/images/dotYellow.gif HTTP/1.1
10 GET /trial/images/dotRed.gif HTTP/1.1
11 GET /trial/images/dotGray.gif HTTP/1.1
12 GET /trial/images/person.png HTTP/1.1
13 GET /trial/images/lock.png HTTP/1.1
14 GET /trial/skin/bg.jpg HTTP/1.1
15 GET /trial/skin/bg40.png HTTP/1.1
16 GET /trial/skin/bg20.png HTTP/1.1

表1

6.2.2、 IE11浏览器HTTP请求瀑布图

图6-2-2-01

图6-2-2-02

图6-2-2-03

TTFB 全称 Time To First
Byte,是指网络请求被发起到从服务器接收到第一个字节的这段时间,此时HTTP请求已发出。从IE11提供瀑布图看并发请求最高达到7个。但对应wireShark抓包只有6个。后续对比我们以wireShark抓包图为准。

6.2.3、IE9浏览器HTTP请求瀑布图

ie9单独访问URL,最大并发数是6个。

图6-2-3-01

HTTP的实际请求开始时间从黄色背景开始

6.2.4、Chrome浏览器HTTP瀑布图

Chrome自带的瀑布图与wireShark工具抓包分析瀑布图显示一致

图6-2-4-01

图6-2-4-02

图6-2-4-03

图6-2-4-04

6.3、KylinTOP仿真度分析

6.3.1、kylinTOP脚本录制:chrome浏览器代理录制

图6-3-5-01

注:kylinTOP录制的HTTP请求要比loadrunner多,在调试过程中已删除多余部分,方便两者对比。

图6-3-5-02

图6-3-5-03

注:kylinTOP自带的绘制HTTP请求瀑布图与wireShark抓包数据分析绘制的HTTP请求瀑布图完全一致(注意两图的有三个HTTP请求位置不同导致看起来不一样,但开始与结束时间是相同的)

6.3.2、执行性能测试任务

6.3.2.1、模拟浏览器行为,根据录制并发请求

图6-3-2-1-01

从上图分析kylinTOP性能监控执行HTTP请求瀑布图与录制时的请求瀑布存在一些差异,差异部分是HTTP请求之间空白时间段被压缩。

图6-3-2-1-02

注:kylintTOP自带的绘制HTTP请求瀑布图(录制快照图和性能测试计划中运行时间图)与wireShark抓包数据分析绘制的HTTP请求瀑布图完全一致,后续将以kylinTOP画图结果为准,不再另行wireShark抓包。

6.3.2.2、模拟浏览器行为,按照录制时间间隔时间并发请求

图6-3-2-2-01

注:wireshark的抓包瀑布图只包括绿色和蓝色两部分。

6.3.3、测试结果分析

模拟浏览器行为,按按照录制时间间隔并发请求模式

kylinTOP的性能测试计划执行获得HTTP请求瀑布图与kylinTOP录制快照图(图6-3-5-02)及录制时的wireShark抓包图(图6-3-5-03)(包括:HTTP请求之间的时间间隔)。录制的HTTP请求瀑布图与chrome单独打开URL的瀑布图(图6-2-4-01至图6-2-4-04)存在一点差异,但相似度非常高(并发数、请求时序),目测相似度在95%左右。chrome每一次单独打开URL的瀑布图也是不一样的,也就是说HTTP请求时序存在一定的随时性,但并发总是不变的。因此kylinTOP的仿真的相似度在并发数和请求时序上几乎与浏览器完全一样。

模拟浏览器行为,根据录制并发请求

该种模式下kylinTOP给使用者多了一种选择,把HTTP请求之间的空闲期进行压缩,并尽可能的并发请求。作者猜想可能为了解决以下场景:、

场景1:录制的脚本的HTTP请求有空闲期,这种情况页一般来说是需要优化的,但开发人员还没有优化,kylinTOP提供一种提前解决脚本的办法。

6.4、Jmeter仿真度分析

6.4.1、Jmeter脚本录制

图6-4-1-01

图6-4-1-02

6.4.2、执行性能测试计划

图6-4-2-01

图6-4-2-02

6.4.3、测试结果分析

从Jmeter的测试计划执行结果的wireShark抓包分析的瀑布图看,Jmeter对HTTP请求是按顺序执行,并发数为1个HTTP,从开始执行到最后执行结束,用时超过3秒钟,真实浏览器单独访问URL时长在1秒左右,参见附件7.1:《Chrome单独访问URL抓包数据分析_wireShark_001.xlsx》。主要是因为Jmeter的用户HTTP请求采用串行请求,不具有真实浏览器的仿真能力。

6.5、LoadRunner 11仿真度分析

6.5.1、脚本录制

图6-5-1-01

图6-5-1-02

从并发图看,有5个并发,但6个并发不是很明显示,与IE9单独访问时的瀑布图(详见:6.2.3章节)相差很大。图形有并发请求,但请求之间交错比较明显,不存在明显的同时并发。

6.5.2、执行性能测试测试计划

图6-5-2-01

图6-5-2-02

6.5.3、测试结果分析

通过LoadRunner11的测试计划的执行结果的瀑布图看,HTTP请求基本上是按2个HTTP请进行并发的。HTTP的请求时序与录制时IE的请求瀑布图不同,且与IE9单独访问URL时的HTTP请求瀑布图也不相同。请求瀑布图是按照loadRunner自己的内部规则并发,与Jmeter相比,在单用户内有2个并发,是有一点进步的,但与IE浏览器的真实行为仍然差距很大。

6.6、LoadRuner12仿真度分析

6.6.1、脚本录制:基于HTML的脚本

6.6.2、执行测试计划

配置测试计划:启动1个虚拟用户且只运行一次
LoadRunner12在运行1虚拟用户的场景,在左图中看起来多启了2个用户。
测试计划执行完毕后,通过的数是1个。通过wireShark抓包分析,脚本执行了3次。抓包文件详见附件。

6.6.3、测试结果分析

  1. 从并发数个看,已达到6个,与浏览器能力一致。
  2. 与录制时的HTTP请求瀑布图对比。相者相差很大,也就是说LoadRunner12在录制时没有记录HTTP的时序。是按照自己内部规则下发请求。
  3. 与浏览器单独访问题的瀑布图相比,存在一定差异,如:catalogue.aspx和font-awesome.min.css这两个HTTP请求,LoadRunner是顺序执行,存在并行的时间窗口。
  4. 对于/trial/skin/bg.jpg这个HTTP请求,浏览器始终是放在倒数第3个请求执行,LoadRunner12提前了很多。

总结:LoadRunner12对录制的请脚本执行,可以仿真IE11浏览器的6个线程并发,但不能仿真器的HTTP请求之间的顺序,相比LoadRunner11已经有了很大的提升。

6.7、HTTP请求仿真度对比总结

通过kylinTOP、Jmeter、LoadRunner11、LoadRuner12的测试计划执行结果的HTTP瀑布图对比结果看。他们的仿真能力排序:kylinTOP>LoadRuner12>LoadRunner11>Jmeter。

根据他们的能力行为,给出如下测试建议:

Jmeter:
可用于开发人员在产品开发中的功能调试使用并做一些非定量的性能测试,不适用于测试人员做定量的性能测试,更不能以此测试结果输出测试结论误导他人。

LoadRunner11:用于开发人员在产品开发中的功能调试使用显示得比较厚重,用起来不是很方便,因为LoadRunner11的HTTP请求被LoadRunner做了二次封闭,不便于开发人员调试。用于测试人员做定量的性能测试,准确度又不够(误差还是比较大),因此处于一个比较尴尬的地位。

LoadRuner12
:仿真的测能力与浏览器相近,可以用于性能测度,但定量的准确度还不够。

KylinTOP:可以用于开发人员在产品开发过程中的功能调试并一些非定量的性能测试(kylinTOP的HTTP未做二次封装)。同时也适用于测试人员做定量的性能测试,仿真度比较高,测试结果相对其它性能测试工具准确可信。

上述性能测试工具仿真度的测评都是以静态HTTP请求为基准的测试结果,后续我们将进一步以动态HTTP请求为作为测试对象,对性能测试工具做一次更高能力的测评,敬请关注。

相关实践学习
通过性能测试PTS对云服务器ECS进行规格选择与性能压测
本文为您介绍如何利用性能测试PTS对云服务器ECS进行规格选择与性能压测。
目录
相关文章
|
5天前
|
敏捷开发 人工智能 Devops
探索自动化测试的高效策略与实践###
当今软件开发生命周期中,自动化测试已成为提升效率、保障质量的关键工具。本文深入剖析了自动化测试的核心价值,探讨了一系列高效策略,包括选择合适的自动化框架、设计可维护的测试脚本、集成持续集成/持续部署(CI/CD)流程,以及有效管理和维护测试用例库。通过具体案例分析,揭示了这些策略在实际应用中的成效,为软件测试人员提供了宝贵的经验分享和实践指导。 ###
|
5天前
|
人工智能 前端开发 测试技术
探索软件测试中的自动化框架选择与优化策略####
本文深入剖析了当前主流的自动化测试框架,通过对比分析各自的优势、局限性及适用场景,为读者提供了一套系统性的选择与优化指南。文章首先概述了自动化测试的重要性及其在软件开发生命周期中的位置,接着逐一探讨了Selenium、Appium、Cypress等热门框架的特点,并通过实际案例展示了如何根据项目需求灵活选用与配置框架,以提升测试效率和质量。最后,文章还分享了若干最佳实践和未来趋势预测,旨在帮助测试工程师更好地应对复杂多变的测试环境。 ####
21 4
|
10天前
|
机器学习/深度学习 前端开发 测试技术
探索软件测试中的自动化测试框架选择与优化策略####
本文深入探讨了在当前软件开发生命周期中,自动化测试框架的选择对于提升测试效率、保障产品质量的重要性。通过分析市场上主流的自动化测试工具,如Selenium、Appium、Jest等,结合具体项目需求,提出了一套系统化的选型与优化策略。文章首先概述了自动化测试的基本原理及其在现代软件开发中的角色变迁,随后详细对比了各主流框架的功能特点、适用场景及优缺点,最后基于实际案例,阐述了如何根据项目特性量身定制自动化测试解决方案,并给出了持续集成/持续部署(CI/CD)环境下的最佳实践建议。 --- ####
|
8天前
|
测试技术 持续交付 Docker
探索软件测试中的自动化策略与挑战
在当今快节奏的软件开发周期中,自动化测试已成为提高产品质量和缩短上市时间的关键。然而,实施有效的自动化测试策略并非易事,它面临着技术选型、脚本维护、环境配置等一系列挑战。本文深入探讨了自动化测试的重要性,分析了常见的自动化测试工具和框架,并讨论了在构建和维护自动化测试体系过程中遇到的主要难题及其解决方案。通过案例分析,本文旨在为软件测试工程师提供实用的指导和建议,以优化他们的自动化测试实践。
|
7天前
|
安全 前端开发 测试技术
如何选择合适的自动化安全测试工具
选择合适的自动化安全测试工具需考虑多个因素,包括项目需求、测试目标、系统类型和技术栈,工具的功能特性、市场评价、成本和许可,以及集成性、误报率、社区支持、易用性和安全性。综合评估这些因素,可确保所选工具满足项目需求和团队能力。
|
6天前
|
监控 网络协议 Java
一些适合性能测试脚本编写和维护的工具
一些适合性能测试脚本编写和维护的工具
|
6天前
|
安全 网络协议 关系型数据库
最好用的17个渗透测试工具
渗透测试是安全人员为防止恶意黑客利用系统漏洞而进行的操作。本文介绍了17款业内常用的渗透测试工具,涵盖网络发现、无线评估、Web应用测试、SQL注入等多个领域,包括Nmap、Aircrack-ng、Burp Suite、OWASP ZAP等,既有免费开源工具,也有付费专业软件,适用于不同需求的安全专家。
10 2
|
12天前
|
jenkins 测试技术 持续交付
软件测试中的自动化测试策略
在当今快速发展的软件行业中,自动化测试已成为确保软件质量和效率的关键工具。本文将探讨自动化测试的重要性、实施策略以及面临的挑战,旨在为软件开发团队提供实用的指导和建议。
|
13天前
|
测试技术 持续交付
探索软件测试的艺术:从基础到高级策略
【10月更文挑战第31天】本文是一篇深入探讨软件测试领域的指南,旨在为读者提供一个结构化的框架来理解并应用各种测试技术。文章将通过浅显易懂的语言和实际代码示例,带领读者从测试的基础概念出发,逐步深入到更复杂的测试策略。无论你是测试新手还是希望提升技能的专业人士,这篇文章都将为你揭示如何通过有效的软件测试保证产品质量和用户满意度。
|
17天前
|
Web App开发 定位技术 iOS开发
Playwright 是一个强大的工具,用于在各种浏览器上测试应用,并模拟真实设备如手机和平板。通过配置 `playwright.devices`,可以轻松模拟不同设备的用户代理、屏幕尺寸、视口等特性。此外,Playwright 还支持模拟地理位置、区域设置、时区、权限(如通知)和配色方案,使测试更加全面和真实。例如,可以在配置文件中设置全局的区域设置和时区,然后在特定测试中进行覆盖。同时,还可以动态更改地理位置和媒体类型,以适应不同的测试需求。
Playwright 是一个强大的工具,用于在各种浏览器上测试应用,并模拟真实设备如手机和平板。通过配置 `playwright.devices`,可以轻松模拟不同设备的用户代理、屏幕尺寸、视口等特性。此外,Playwright 还支持模拟地理位置、区域设置、时区、权限(如通知)和配色方案,使测试更加全面和真实。例如,可以在配置文件中设置全局的区域设置和时区,然后在特定测试中进行覆盖。同时,还可以动态更改地理位置和媒体类型,以适应不同的测试需求。
17 1