全网最详细!Centos7.X 搭建Grafana+Jmeter+Influxdb 性能实时监控平台 (中)

本文涉及的产品
可观测可视化 Grafana 版,10个用户账号 1个月
简介: 全网最详细!Centos7.X 搭建Grafana+Jmeter+Influxdb 性能实时监控平台 (中)

步骤三:运行Jmeter脚本,查看数据库


一开始,我的数据库是只有两张表的,这里方便演示,就只跑get、post请求了


image.png

如果成功了代表结果数据也存进InfluxDB里面了,接下来我们来看看使用  GraphiteBackendListenerClient 时会生成哪些表呢?

微信图片_20220504103446.png

可以看到生成了三种前缀的表,分别是: jmeter.alljmeter.getjmeter.post ;最后其实还有 jmeter.test 开头的表,这个后面会单独拿出来说

 

============================================

=== 倘若不想了解每个指标的具体含义,可以跳过下面内容

=== 直接点击右侧目录,跳转至配置Grafana,查看下一步

============================================

 

步骤四:细品指标含义


为什么每个表都有jmeter前缀呢?

因为在Jmeter的Backend Listener配置了rootMetricsPrefix 值为 jmeter. ,你不喜欢前缀或者想起其他名,在Backend Listener里直接改 rootMetricsPrefix 的值就可以了

可以参考下官方文档的写法: <rootMetricsPrefix><samplerName>.ok.count ,rootMetricsPrefix和samplerName都是变量,可配置的

 

接下来,我们来说明下每个前缀的含义

jmeter.all :代表了所有请求;当summaryOnly=true时,就只有samplerName=all的表了

jmeter.get :代表了HTTP请求的名字是get,即samplerName=get

jmeter.post :代表了HTTP请求的名字是post,即samplerName=post

备注:假设你的某个HTTP请求叫【GET请求啊】,辣么你的数据库就会生成以jmeter.GET请求啊 为前缀的各种表

 

然后再针对不同指标说下它们的含义

划重点:这里的指标含义都是直接翻译Jmeter官方文档的

喜欢英文的小伙伴可以自行查看:http://jmeter.apache.org/usermanual/realtime-results.html

 

Thread/Virtual Users metrics - 线程/虚拟用户指标

跟线程组设置相关的

指标 全称 含义
<rootMetricsPrefix>test.minAT Min active threads 最小活跃线程数
<rootMetricsPrefix>test.maxAT Max active threads 最大活跃线程数
<rootMetricsPrefix>test.meanAT Mean active threads 平均活跃线程数
<rootMetricsPrefix>test.startedT Started threads 启动线程数
<rootMetricsPrefix>test.endedT Finished threads 结束线程数

Response times metrics - 响应时间指标

划重点:每个sampler都包含了所有响应时间指标,每个sampler的每个指标都会有单独的一个表存储结果数据

指标 含义
<rootMetricsPrefix><samplerName>.ok.count sampler的成功响应数
<rootMetricsPrefix><samplerName>.h.count 服务器每秒命中次数(每秒点击数,即TPS)
<rootMetricsPrefix><samplerName>.ok.min sampler响应成功的最短响应时间
<rootMetricsPrefix><samplerName>.ok.max sampler响应成功的最长响应时间
<rootMetricsPrefix><samplerName>.ok.avg sampler响应成功的平均响应时间
<rootMetricsPrefix><samplerName>.ok.pct<percentileValue> sampler响应成功的所占百分比
<rootMetricsPrefix><samplerName>.ko.count sampler的失败响应数
<rootMetricsPrefix><samplerName>.ko.min sampler响应失败的最短响应时间
<rootMetricsPrefix><samplerName>.ko.max sampler响应失败的最长响应时间
<rootMetricsPrefix><samplerName>.ko.avg sampler响应失败的平均响应时间
<rootMetricsPrefix><samplerName>.ko.pct<percentileValue> sampler响应失败的所占百分比
<rootMetricsPrefix><samplerName>.a.count sampler响应数(ok.count+ko.count)
<rootMetricsPrefix><samplerName>.sb.bytes 已发送字节
<rootMetricsPrefix><samplerName>.rb.bytes 已接收字节
<rootMetricsPrefix><samplerName>.a.min

sampler响应的最短响应时间

(ok.count和ko.count的最小值)

<rootMetricsPrefix><samplerName>.a.max  

sampler响应的最长响应时间

(ok.count和ko.count的最大值)

<rootMetricsPrefix><samplerName>.a.avg  

sampler响应的平均响应时间

(ok.count和ko.count的平均值)

<rootMetricsPrefix><samplerName>.a.pct<percentileValue>

sampler响应的百分比

(根据成功和失败的总数来计算)

不知道大家是否有个疑问,为何 a.mina.maxa.avg 明明说的都是平均响应时间,但是括号里备注的又是和响应数相关的;但是Jmeter官方文档说明翻译过来的确是这样的..只能等我来寻找答案了!

经过我的“缜密”对比,可以发现官网说明的确是错的哈,真实情况如下!

a.min :是ok.min和ko.min的最小值

a.max :是ok.max和ko.max的最小值

a.avg :是ok.avg和ko.avg的平均值

接下来就是用数据说明事实!按照上面的指标顺序来看图哈!

image.png

image.png

配置Grafana


首先进入Grafana的首页,可以看到官方画了个流程:先创建数据源,再创建数据面板

image.png

相关文章
|
测试技术 数据库 UED
Python 性能测试进阶之路:JMeter 与 Locust 的强强联合,解锁性能极限
【9月更文挑战第9天】在数字化时代,确保软件系统在高并发场景下的稳定性至关重要。Python 为此提供了丰富的性能测试工具,如 JMeter 和 Locust。JMeter 可模拟复杂请求场景,而 Locust 则能更灵活地模拟真实用户行为。结合两者优势,可全面评估系统性能并优化瓶颈。例如,在电商网站促销期间,通过 JMeter 模拟大量登录请求并用 Locust 模拟用户浏览和购物行为,可有效识别并解决性能问题,从而提升系统稳定性和用户体验。这种组合为性能测试开辟了新道路,助力应对复杂挑战。
410 2
|
测试技术 持续交付 Apache
性能怪兽来袭!Python+JMeter+Locust,让你的应用性能飙升🦖
【8月更文挑战第5天】随着互联网应用规模增长,性能测试至关重要。本文介绍如何利用Python结合Apache JMeter和Locust构建高效可定制的性能测试框架。JMeter广泛用于负载测试,通过模拟大量虚拟用户并发访问来评估性能。Locust基于Python,通过编写简单脚本模拟HTTP请求,特别适合Web应用测试,比JMeter更灵活易扩展。Python作为胶水语言简化测试脚本编写并流畅自动化流程。文章提供JMeter命令行测试和Locust脚本示例,并展示如何用Python自动化执行和整合测试结果,最终帮助应用在高负载下稳定运行。
342 1
|
Prometheus 监控 Cloud Native
基于Prometheus和Grafana的监控平台 - 环境搭建
基于Prometheus和Grafana的监控平台 - 环境搭建
|
缓存 Java 测试技术
谷粒商城笔记+踩坑(11)——性能压测和调优,JMeter压力测试+jvisualvm监控性能+资源动静分离+修改堆内存
使用JMeter对项目各个接口进行压力测试,并对前端进行动静分离优化,优化三级分类查询接口的性能
612 10
谷粒商城笔记+踩坑(11)——性能压测和调优,JMeter压力测试+jvisualvm监控性能+资源动静分离+修改堆内存
|
测试技术 持续交付 Apache
性能怪兽来袭!Python+JMeter+Locust,让你的应用性能飙升🦖
【10月更文挑战第10天】随着互联网应用规模的不断扩大,性能测试变得至关重要。本文将探讨如何利用Python结合Apache JMeter和Locust,构建高效且可定制的性能测试框架。通过介绍JMeter和Locust的使用方法及Python的集成技巧,帮助应用在高负载下保持稳定运行。
236 2
|
测试技术 持续交付 Apache
性能怪兽来袭!Python+JMeter+Locust,让你的应用性能飙升🦖
【10月更文挑战第2天】随着互联网应用规模的不断膨胀,性能测试变得至关重要。本文将介绍如何利用Python结合Apache JMeter和Locust构建高效且可定制的性能测试框架。Apache JMeter是一款广泛使用的开源负载测试工具,适合测试静态和动态资源;Locust则基于Python,通过编写简单的脚本模拟HTTP请求,更适合复杂的测试场景。
234 3
|
存储 Linux 数据库
性能工具之JMeter + Grafana + InfluxDB 性能平台搭建
【8月更文挑战第7天】性能工具之JMeter + Grafana + InfluxDB 性能平台搭建
384 1
性能工具之JMeter + Grafana + InfluxDB 性能平台搭建
|
监控 Java 测试技术
实战派必看!Python性能测试中,JMeter与Locust如何助力性能调优
【8月更文挑战第6天】性能优化是软件开发的关键。本文介绍JMeter与Locust两款流行性能测试工具,演示如何用于Python应用的性能调优。JMeter可模拟大量用户并发访问,支持多种协议;Locust用Python编写,易于定制用户行为并模拟高并发。根据场景选择合适工具,确保应用在高负载下的稳定运行。
349 4
|
测试技术 数据库 UED
Python 性能测试进阶之路:JMeter 与 Locust 的强强联合,解锁性能极限
【8月更文挑战第6天】在数字化时代,确保软件在高并发下的稳定性至关重要。Python 提供了强大的性能测试工具,如 JMeter 和 Locust。JMeter 可配置复杂请求场景,而 Locust 则以 Python 脚本灵活模拟真实用户行为。两者结合,可全面评估系统性能。例如,对电商网站进行测试时,JMeter 模拟登录请求,Locust 定义浏览和购物行为,共同揭示系统瓶颈并指导优化,从而保证稳定高效的用户体验。
275 1
|
监控 数据可视化 测试技术
性能工具之JMeter+InfluxDB+Grafana打造压测可视化实时监控
【5月更文挑战第23天】性能工具之JMeter+InfluxDB+Grafana打造压测可视化实时监控
2097 6
性能工具之JMeter+InfluxDB+Grafana打造压测可视化实时监控