JMeter+Ant+Jenkins实现接口自动化测试持续集成

简介: 本文介绍了如何使用Ant生成JMeter接口测试报告,并集成到Jenkins中实现自动化测试。内容涵盖Ant与JMeter环境配置、build.xml文件设置、测试执行及报告生成,同时包括Jenkins插件安装、项目配置和钉钉消息通知的集成,帮助实现持续测试与结果可视化。

Ant生成接口测试报告

下载ant

ant是jmeter的插件,官网地址:https://ant.apache.org/,下载指定版本如1.10.14支持Java1.8以上


1.官网下载后解压ant,然后把ant的bin目录配置到环境变量的path里,配置好后可以在电脑任意位置启动ant,配置过程中路径尽量不要出现中文。


配置build.xml文件

新增一个项目文件夹,把需要执行的jmx脚本复制到该文件夹,并在文件夹里新增配置ant的编译文件bulid.xml,里面涉及到文件路径的需要参考自己电脑的路径进行修改,否则运行会出现路径报错。


第8行需要改为自己电脑上JMeter所在目录

第11和13行需要改成结果输出目录,建议改为jmx脚本所在目录

第40行改为jmx脚本所在的目录,即和11,13行同一个目录 参考如下

第57行是汇总报告模板,默认JMeter自带,在extras目录下

第66行是详细报告模板,需要外部引用,下载好了之后放在extras目录下,后面第5步有说明。

<?xml version="1.0" encoding="UTF-8"?> <project name="ant-jmeter-test" default="run" basedir="."> <property environment="env"/> <tstamp> <format property="time" pattern="yyyy_MM_dd_hh_mm" /> </tstamp> <!--需要调用的jmeter目录,根据需要进行修改,本次使用的Windows路径--> <property name="jmeter.home" value="D:\Program Files\apache-jmeter-5.5" /> <property name="report.title" value="接口测试"/> <!-- jmeter生成jtl格式的结果报告的路径--> <property name="jmeter.result.jtl.dir" value="D:\Desktop\ant_demo\jtl" /> <!-- jmeter生成html格式的结果报告的路径--> <property name="jmeter.result.html.dir" value="D:\Desktop\ant_demo\html" /> <!-- 【详细报告】jmeter生成html格式的详细报告的路径--> <property name="jmeter.result.html.dir1" value="report" /> <!--生成的报告的前缀--> <property name="ReportName" value="接口测试汇总报告" /> <property name="ReportName1" value="接口测试详细报告" /> <property name="jmeter.result.jtlName" value="${jmeter.result.jtl.dir}/${ReportName}.jtl" /> <property name="jmeter.result.htmlName" value="${jmeter.result.html.dir}/${ReportName}.html" /> <!-- 【详细报告】详细报告的文件名--> <property name="jmeter.result.htmlName1" value="${jmeter.result.html.dir1}/${ReportName1}.html" /> <target name="run" > <!--antcall target-"delete" /--> <antcall target="test" /> <antcall target="report" /> </target> <!-- 该命令用来删除今天已经执行过的jtl,防止旧数据重叠 <target name = "delete"> <delete file="${jmeter.result.jtl.dir}/${ReportName}${env.BUILD_ID}.jtl"/> </target> --> <!-- 该命令为执行命令--> <target name="test"> <taskdef name="jmeter" classname="org.programmerplanet.ant.taskdefs.jmeter.JMeterTask" /> <jmeter jmeterhome="${jmeter.home}" resultlog="${jmeter.result.jtlName}"> <!-- 声明要运行的脚本路径"*.jmx"指包含此目录下的所有jmeter脚本--> <testplans dir="D:\Desktop\ant_demo" includes="*.jmx" /> <property name="jmeter.save.saveservice.output_format" value="xml"/> </jmeter> </target> <path id="xslt.classpath"> <fileset dir="${jmeter.home}/lib" includes="xalan*.jar"/> <fileset dir="${jmeter.home}/lib" includes="serializer*.jar"/> </path> <!--该命令为生成汇总和详细报告--> <target name="report"> <tstamp> <format property="report.datestamp" pattern="yyy/MM/dd HH:mm" /></tstamp> <xslt classpathref="xslt.classpath" force="true" in="${jmeter.result.jtlName}" out="${jmeter.result.htmlName}" style="${jmeter.home}/extras/jmeter-results-report_21.xsl"> <param name="dateReport" expression="${report.datestamp}"/> </xslt> <!--【详细报告】指定详细报告模板文件--> <xslt classpathref="xslt.classpath" force="true" in="${jmeter.result.jtlName}" out="${jmeter.result.htmlName1}" style="${jmeter.home}/extras/jmeter.results.shanhe.me.xsl"> <param name="dateReport" expression="$report.datestamp"/> </xslt> <!--因为上面生成报告的时候,不会将相关的图片也一起拷贝至日标目录,所以,需要手动拷贝--> <copy todir="${jmeter.result.html.dir}"> <fileset dir="${jmeter.home}/extras"> <include name="collapse.png" /> <include name="expand.png" /> </fileset> </copy> <!-- 【详细报告】拷贝图片到目标日录--> <copy todir="${jmeter.result.html.dir1}"> <fileset dir="${jmeter.home}/extras"> <include name="collapse.png" /> <include name="expand.png" /> </fileset> </copy> </target> </project>

3.配置jmeter的插件扩展,把Jmeter\extras目录下的ant-jmeter-1.1.1.jar拷贝到apache-ant-1.10.14\lib目录下


配置jmeter文件

4.配置jmeter的全局配置文件bin/jmeter.properties,打开注释修改以下三处。

#指定了JMeter保存测试结果的输出格式。将结果以XML格式保存可以使其更易于解析和处理。499行

jmeter.save.saveservice.output_format=xml

#当设置为 true 时,表示将响应数据包含在测试结果中。这意味着在保存测试结果时,会将每个请求的响应数据一并保存下来,以便后续分析和查看请求的具体响应内容。513行

jmeter.save.saveservice.response_data=true

#当设置为 true 时,表示将采样器数据也包含在测试结果中。这样做可以保存有关每个采样器执行的详细信息,

比如开始时间、结束时间等等。525行

jmeter.save.saveservice.samplerData=true

5.添加配置文件jmeter.results.shanhe.me.xsl到extras目录下,该文件为报告提供模板。


运行测试

6.执行ant查看报告生成结果

把jmx文件和bulid.xml放在同一目录下,打开cmd执行ant命令,运行成功后会生成html,jtl和report三个文件夹。



此处如果启动出现build38行报错,检查ant-jmeter-1.1.1.jar包拷贝的路径是否正确,配置的build的JMeter路径是否正确。


查看报告信息

在生成的report文件夹下可以查看接口测试详细报告



在生成的html文件夹下可以查看接口测试汇总报告



Ant与Jenkins的集成

启动电脑上的Jenkins服务,访问Jenkins,默认地址为ttp://127.0.0.1:8080/login


安装插件

需要准备插件

安装插件

HTML Publisher plugin

Ant Plugin


DingTalk


安装完毕插件后,重启一下Jenkins

添加钉钉机器人

钉钉群里添加机器人,复制Webhook和关键词


配置机器人



测试成功后会发送测试消息


添加构建项目

新建一个自由风格的项目

1.配置钉钉机器人


2.配置工作目录


3.添加构建步骤,执行ant


4.添加构建后的操作,设置两个报告

第一个报告


第二个报告


保存设置 执行构建


查看报告



控制台输出乱码问题,在系统里配置环境变量


键:JAVA_TOOL_OPTIONS 值:-Dfile.encoding=utf-8

键:LANG值:zh_CN.UTF-8



目录
打赏
0
0
0
0
2
分享
相关文章
如何让AI帮你做前端自动化测试?我们这样落地了
本文介绍了一个基于AI的UI自动化测试框架在专有云质量保障中的工程化实践。
如何让AI帮你做前端自动化测试?我们这样落地了
UI自动化测试中的元素等待机制解析
在UI自动化测试中,元素定位失败常因页面存在iframe或缺乏合理等待机制。本文解析三种等待策略及其应用场景:显式等待可精确控制单个元素等待条件,支持自定义轮询;隐式等待全局生效,适合简单页面加载;强制等待仅用于临时调试,正式脚本慎用。通过对比三者执行精度、资源消耗及适用场景,帮助选择最优策略,提升测试效率与稳定性。
Python接口自动化测试中Mock服务的实施。
总结一下,Mock服务在接口自动化测试中的应用,可以让我们拥有更高的灵活度。而Python的 `unittest.mock`库为我们提供强大的支持。只要我们正确使用Mock服务,那么在任何情况下,无论是接口是否可用,都可以进行准确有效的测试。这样,就大大提高了自动化测试的稳定性和可靠性。
75 0
pytest接口自动化测试框架搭建
通过上述步骤,我们成功搭建了一个基于 `pytest`的接口自动化测试框架。这个框架具备良好的扩展性和可维护性,能够高效地管理和执行API测试。通过封装HTTP请求逻辑、使用 `conftest.py`定义共享资源和前置条件,并利用 `pytest.ini`进行配置管理,可以大幅提高测试的自动化程度和执行效率。希望本文能为您的测试工作提供实用的指导和帮助。
364 15
Midscene.js:AI 驱动的 UI 自动化测试框架,支持自然语言交互,生成可视化报告
Midscene.js 是一款基于 AI 技术的 UI 自动化测试框架,通过自然语言交互简化测试流程,支持动作执行、数据查询和页面断言,提供可视化报告,适用于多种应用场景。
2039 1
Midscene.js:AI 驱动的 UI 自动化测试框架,支持自然语言交互,生成可视化报告
自动化测试之美:从零开始搭建你的Python测试框架
在软件开发的马拉松赛道上,自动化测试是那个能让你保持节奏、避免跌宕起伏的神奇小助手。本文将带你走进自动化测试的世界,用Python这把钥匙,解锁高效、可靠的测试框架之门。你将学会如何步步为营,构建属于自己的测试庇护所,让代码质量成为晨跑时清新的空气,而不是雾霾中的忧虑。让我们一起摆脱手动测试的繁琐枷锁,拥抱自动化带来的自由吧!
前端自动化测试
前端自动化测试是通过使用工具和脚本自动执行测试用例的过程,旨在提高测试效率、减少人为错误,并确保Web应用的功能在不同环境和设备上的一致性与稳定性。
如何确保自动化安全测试的全面性和准确性
确保自动化安全测试的全面性和准确性,需集成多种工具(如SAST、DAST、IAST、SCA),编写自动化测试脚本,融入CI/CD流程,定期更新测试用例和工具,使用真实数据,持续维护代码,模拟攻击场景,运用机器学习,采用智能测试平台,并结合手动测试。这些策略有助于及时发现并修复安全问题,提升软件安全性。
如何选择合适的自动化安全测试工具
选择合适的自动化安全测试工具需考虑多个因素,包括项目需求、测试目标、系统类型和技术栈,工具的功能特性、市场评价、成本和许可,以及集成性、误报率、社区支持、易用性和安全性。综合评估这些因素,可确保所选工具满足项目需求和团队能力。
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等

登录插画

登录以查看您的控制台资源

管理云资源
状态一览
快捷访问