Java基准测试工具JMH使用

简介: Java基准测试工具JMH使用

JMH,即Java Microbenchmark Harness,这是专门用于进行代码的微基准测试的一套工具API。

JMH 由 OpenJDK/Oracle 里面那群开发了 Java 编译器的大牛们所开发 。何谓 Micro Benchmark 呢? 简单地说就是在 方法层面上的 benchmark,精度可以精确到微秒级。

本文主要介绍了性能基准测试工具 JMH,它可以通过一些功能来规避由 JVM 中的 JIT 或者其他优化对性能测试造成的影响。

Java的基准测试需要注意的几个点:

  • 测试前需要预热。
  • 防止无用代码进入测试方法中
  • 并发测试
  • 测试结果呈现

,如果我们要通过JMH进行基准测试的话,直接在我们的pom文件中引入JMH的依赖即可:

dependencies {
        jmhCompile project
        jmhCompile 'org.openjdk.jmh:jmh-core:1.24'
        jmhAnnotationProcessor 'org.openjdk.jmh:jmh-generator-annprocess:1.24'
    }

@Fork:

进行 fork 的次数,可用于类或者方法上。如果 fork 数是 2 的话,则 JMH 会 fork 出两个进程来进行测试。

@Threads:

每个测试进程的测试线程数量。

@OutputTimeUnit:

测试结果的时间单位。

@Param

指定某项参数的多种情况,特别适合用来测试一个函数在不同的参数输入的情况下的性能,只能作用在字段上,使用该注解必须定义 @State 注解。

@Setup

必须标示在@State注解的类内部,表示初始化操作

@TearDown

必须表示在@State注解的类内部,表示销毁操作

Level.Trial

只会在个基础测试的前后执行。包括Warmup和Measurement阶段,一共只会执行一次。

Level.Iteration

每次执行记住测试方法的时候都会执行,如果Warmup和Measurement都配置了2次执行的话,那么@Setup和@TearDown配置的方法的执行次数就4次。

Level.Invocation

每个方法执行的前后执行(一般不推荐这么用)

@Benchmark

@Benchmark标签是用来标记测试方法的,只有被这个注解标记的话,该方法才会参与基准测试,但是有一个基本的原则就是被@Benchmark标记的方法必须是public的。

@Warmup

@Warmup用来配置预热的内容,可用于类或者方法上,越靠近执行方法的地方越准确。一般配置warmup的参数有这些:

iterations:预热的次数。

time:每次预热的时间。

timeUnit:时间单位,默认是s。

batchSize:批处理大小,每次操作调用几次方法。

@Measurement

用来控制实际执行的内容

iterations:执行的次数。

time:每次执行的时间。

timeUnit:时间单位,默认是s。

batchSize:批处理大小,每次操作调用几次方法。

@BenchmarkMode

@BenchmarkMode主要是表示测量的纬度,有以下这些纬度可供选择:

Mode.Throughput 整体吞吐量,每秒执行了多少次调用,单位为 ops/time

Mode.AverageTime 用的平均时间,每次操作的平均时间,单位为 time/op

Mode.SampleTime 随机取样,最后输出取样结果的分布

Mode.SingleShotTime 只运行一次,往往同时把 Warmup 次数设为 0,用于测试冷启动时的性能

Mode.All:上面的所有模式都执行一次

Mode.All 运用所有的检测模式 在方法级别指定@BenchmarkMode的时候可以一定指定多个纬度,例如:@BenchmarkMode({Mode.Throughput, Mode.AverageTime, Mode.SampleTime, Mode.SingleShotTime}),代表同时在多个纬度对目标方法进行测量。

@OutputTimeUnit

@OutputTimeUnit代表测量的单位,比如秒级别,毫秒级别,微妙级别等等。一般都使用微妙和毫秒级别的稍微多一点。该注解可以用在方法级别和类级别,当用在类级别的时候会被更加精确的方法级别的注解覆盖,原则就是离目标更近的注解更容易生效。

@State

在很多时候我们需要维护一些状态内容,比如在多线程的时候我们会维护一个共享的状态,这个状态值可能会在每隔线程中都一样,也有可能是每个线程都有自己的状态,JMH为我们提供了状态的支持。该注解只能用来标注在类上,因为类作为一个属性的载体。@State的状态值主要有以下几种:

Scope.Benchmark 该状态的意思是会在所有的Benchmark的工作线程中共享变量内容。

Scope.Group 同一个Group的线程可以享有同样的变量

Scope.Thread 每个线程都享有一份变量的副本,线程之间对于变量的修改不会相互影响

很多参数的默认值在该类:org.openjdk.jmh.runner.Defaults

@State(Scope.Benchmark)
@Fork(value = 1)
public class ParseEngineBenchmark {
    @Param({"128", "256", "512","1024", "2048", "4096"})
    private int length;
    private byte[] content;
    private byte[] zlibEncode;
    private byte[] zstdEncode;
    @Setup(Level.Trial)
    public void prepare() throws IOException {
         content = RandomStringUtils.randomAlphanumeric(length).getBytes();
        zlibEncode=ZipUtils.compress(content);
        zstdEncode=Zstd.compress(content);
    }
    @TearDown(Level.Trial)
    public void destroy() {
    }
    @Benchmark
    @BenchmarkMode({Mode.Throughput})
    @OutputTimeUnit(TimeUnit.SECONDS)
    @Warmup(iterations = 2, time = 1)
    @Measurement(iterations = 10, time = 1)
    public byte[] handleZlibCompress() throws IOException {
        return ZipUtils.compress(content);
    }
    public static void main(String[] args) {
        Options opt = new OptionsBuilder(
        )
                .include(ParseEngineBenchmark.class.getSimpleName()).result("result.json")//数据json的跑分结果
                .resultFormat(ResultFormatType.JSON).output("run.log")//输出打印日志
                .build();
        try {
            new Runner(opt).run();
        } catch (RunnerException e) {
            e.printStackTrace();
        }
    }
  }

JMH 可视化除此以外,如果你想将测试结果以图表的形式可视化,可以试下这些网站:

Benchmark                                  (length)   Mode  Cnt         Score        Error  Units
ParseEngineBenchmark.handleCrypto               256  thrpt   10  13042155.579 ± 112897.883  ops/s
ParseEngineBenchmark.handleUnCrypto             256  thrpt   10  11870482.143 ±  41689.274  ops/s
ParseEngineBenchmark.handleZlibCompress         256  thrpt   10    105607.717 ±   7477.906  ops/s
ParseEngineBenchmark.handleZlibUnCompress       256  thrpt   10    298697.795 ±  67420.169  ops/s
ParseEngineBenchmark.handleZstdCompress         256  thrpt   10    304541.271 ±   2214.547  ops/s
ParseEngineBenchmark.handleZstdUnCompress       256  thrpt   10    669493.645 ±   4759.451  ops/s

其中:

Mode:

thrpt:吞吐量,也可以理解为tps、ops

avgt:每次请求的平均耗时

sample:请求样本数量,这次压测一共发了多少个请求

ss:SingleShot除去冷启动,一共执行了多少轮

Cnt、执行次数

Score:得分

Units 单位

Error 误差或者偏差

如果你配置了输出文件,比如我上面的 resul.json ,但是你打开是看不懂的,可以借助两个网站把文件上传进行分析:

JMH Visual Chart,这个项目目前处在实验状态,并没有对所有可能的基准测试结果进行验证,目前它能够比较不同参数下不同方法的性能,未来可以无限的扩展JSON to Chart的转化方法从而支持更多的图表

JMH Visualizer:它是一个功能齐全的可视化项目,只是少了我想要的图表罢了。

进阶:

JMH 陷阱在使用 JMH 的过程中,一定要避免一些陷阱。比如 JIT 优化中的死码消除,比如以下代码:@Benchmark

public void testStringAdd(Blackhole blackhole) {

String a = “”;

for (int i = 0; i < length; i++) {

a += i;

}

}JVM 可能会认为变量 a 从来没有使用过,从而进行优化把整个方法内部代码移除掉,这就会影响测试结果。JMH 提供了两种方式避免这种问题,一种是将这个变量作为方法返回值 return a,一种是通过 Blackhole 的 consume 来避免 JIT 的优化消除。其他陷阱还有常量折叠与常量传播、永远不要在测试中写循环、使用 Fork 隔离多个测试方法、方法内联、伪共享与缓存行、分支预测、多线程测试等,感兴趣的可以阅读 https://github.com/lexburner/JMH-samples 了解全部的陷阱。

Q1: gradle Unable to find the resource: /META-INF/BenchmarkList

可能是导入的jar包方式不正常,

jmhCompile project
        compile 'org.openjdk.jmh:jmh-core:1.24'
        compile 'org.openjdk.jmh:jmh-generator-annprocess:1.24'

改成

jmhCompile project
        jmhCompile 'org.openjdk.jmh:jmh-core:1.24'
        jmhAnnotationProcessor 'org.openjdk.jmh:jmh-generator-annprocess:1.24'

Q2: 不能用调试模式,否则会报以下异常:

# Run progress: 0.00% complete, ETA 00:00:24
# Fork: 1 of 1
ERROR: transport error 202: connect failed: Connection refused
ERROR: JDWP Transport dt_socket failed to initialize, TRANSPORT_INIT(510)
JDWP exit error AGENT_ERROR_TRANSPORT_INIT(197): No transports initialized [debugInit.c:750]
<forked VM failed with exit code 2>
<stdout last='20 lines'>
</stdout>
<stderr last='20 lines'>
ERROR: transport error 202: connect failed: Connection refused
ERROR: JDWP Transport dt_socket failed to initialize, TRANSPORT_INIT(510)
JDWP exit error AGENT_ERROR_TRANSPORT_INIT(197): No transports initialized [debugInit.c:750]
</stderr>

Q3: 为什么每次同样的样本,同样的代码,jmh测试结果会有差异,有时候波动还挺大?

最好测试机上啥都不跑,微信、浏览器这些都要关掉,intel会有睿频加速技术,可以理解为自动超频,jmh的线程数超过CPU核数也会稳定一些,

目录
相关文章
|
2月前
|
人工智能 缓存 监控
使用LangChain4j构建Java AI智能体:让大模型学会使用工具
AI智能体是大模型技术的重要演进方向,它使模型能够主动使用工具、与环境交互,以完成复杂任务。本文详细介绍如何在Java应用中,借助LangChain4j框架构建一个具备工具使用能力的AI智能体。我们将创建一个能够进行数学计算和实时信息查询的智能体,涵盖工具定义、智能体组装、记忆管理以及Spring Boot集成等关键步骤,并展示如何通过简单的对话界面与智能体交互。
865 1
|
3月前
|
算法 IDE Java
Java 项目实战之实际代码实现与测试调试全过程详解
本文详细讲解了Java项目的实战开发流程,涵盖项目创建、代码实现(如计算器与汉诺塔问题)、单元测试(使用JUnit)及调试技巧(如断点调试与异常排查),帮助开发者掌握从编码到测试调试的完整技能,提升Java开发实战能力。
415 0
|
2月前
|
机器学习/深度学习 人工智能 测试技术
EdgeMark:嵌入式人工智能工具的自动化与基准测试系统——论文阅读
EdgeMark是一个面向嵌入式AI的自动化部署与基准测试系统,支持TensorFlow Lite Micro、Edge Impulse等主流工具,通过模块化架构实现模型生成、优化、转换与部署全流程自动化,并提供跨平台性能对比,助力开发者在资源受限设备上高效选择与部署AI模型。
336 9
EdgeMark:嵌入式人工智能工具的自动化与基准测试系统——论文阅读
|
1月前
|
人工智能 监控 Java
Java与AI智能体:构建自主决策与工具调用的智能系统
随着AI智能体技术的快速发展,构建能够自主理解任务、制定计划并执行复杂操作的智能系统已成为新的技术前沿。本文深入探讨如何在Java生态中构建具备工具调用、记忆管理和自主决策能力的AI智能体系统。我们将完整展示从智能体架构设计、工具生态系统、记忆机制到多智能体协作的全流程,为Java开发者提供构建下一代自主智能系统的完整技术方案。
360 4
|
2月前
|
人工智能 Java API
Java AI智能体实战:使用LangChain4j构建能使用工具的AI助手
随着AI技术的发展,AI智能体(Agent)能够通过使用工具来执行复杂任务,从而大幅扩展其能力边界。本文介绍如何在Java中使用LangChain4j框架构建一个能够使用外部工具的AI智能体。我们将通过一个具体示例——一个能获取天气信息和执行数学计算的AI助手,详细讲解如何定义工具、创建智能体并处理执行流程。本文包含完整的代码示例和架构说明,帮助Java开发者快速上手AI智能体的开发。
947 8
|
2月前
|
Java 测试技术 API
自动化测试工具集成及实践
自动化测试用例的覆盖度及关键点最佳实践、自动化测试工具、集成方法、自动化脚本编写等(兼容多语言(Java、Python、Go、C++、C#等)、多框架(Spring、React、Vue等))
137 6
|
7月前
|
监控 Java Unix
6个Java 工具,轻松分析定位 JVM 问题 !
本文介绍了如何使用 JDK 自带工具查看和分析 JVM 的运行情况。通过编写一段测试代码(启动 10 个死循环线程,分配大量内存),结合常用工具如 `jps`、`jinfo`、`jstat`、`jstack`、`jvisualvm` 和 `jcmd` 等,详细展示了 JVM 参数配置、内存使用、线程状态及 GC 情况的监控方法。同时指出了一些常见问题,例如参数设置错误导致的内存异常,并通过实例说明了如何排查和解决。最后附上了官方文档链接,方便进一步学习。
995 4
|
6月前
|
机器学习/深度学习 消息中间件 存储
【高薪程序员必看】万字长文拆解Java并发编程!(9-2):并发工具-线程池
🌟 ​大家好,我是摘星!​ 🌟今天为大家带来的是并发编程中的强力并发工具-线程池,废话不多说让我们直接开始。
242 0
|
3月前
|
前端开发 Java jenkins
Jmeter压力测试工具全面教程和使用技巧。
JMeter是一个能够模拟高并发请求以检查应用程序各方面性能的工具,包括但不限于前端页面、后端服务及数据库系统。熟练使用JMeter不仅能够帮助发现性能瓶颈,还能在软件开发早期就预测系统在面对真实用户压力时的表现,确保软件质量和用户体验。在上述介绍的基础上,建议读者结合官方文档和社区最佳实践,持续深入学习和应用。
852 10
|
3月前
|
监控 Java 数据挖掘
利用Jmeter工具进行HTTP接口的性能测试操作
基础上述步骤反复迭代调整直至满足预期目标达成满意水平结束本轮压力评估周期进入常态监控阶段持续关注系统运转状态及时发现处理新出现问题保障服务稳定高效运作
515 0