go代码测试与调优(下)

简介: 在了解golang的测试之前,先了解一下go语言自带的测试工具-go test

基准测试示例


为自己写的Split函数编写基准测试如下:


// BenchmarkSplit 基准测试(性能测试)
func BenchmarkSplit(b *testing.B) {
    for i := 0; i <b.N ; i++ {
        Split("abcdebdae", "b")
    }
}
// 输出结果如下
goos: darwin
goarch: amd64
pkg: Gp/part5/splitStr
BenchmarkSplit
BenchmarkSplit-8        5740642           209 ns/op
PASS
ok      Gp/part5/splitStr   1.963s


其中


BenchmarkSplit:表示对Split函数进行基准测试


BenchmarkSplit-8:数字8表示GOMAXPROCS的值,这个对于并发基准测试很重要


5188407和206 ns/op:表示每次调用Split函数耗时203ns


还可以为基准测试添加-benchmem参数,来获得内存分配的统计数据。


112 B/op:表示每次操作内存分配了112字节


3 allocs/op:则表示每次操作进行了3次内存分配!!!


优化后代码如下


// split.go
func Split(s, sep string) (result []string) {
    i := strings.Index(s, sep)
  // 手动分配固定内存,避免多次创建
    result = make([]string, 0, strings.Count(s, sep)+1)
    for i > -1 {
        result = append(result, s[:i])
        s = s[i+len(sep):] // 这里使用len(sep)获取sep的长度
        i = strings.Index(s, sep)
    }
    result = append(result, s)
    return
}


优化后代码如下


640 (1).jpg


这个使用make函数提前分配内存的改动,减少了2/3的内存分配次数,并且减少了一半的内存分配。


仅仅小小的一处改动,就引起如此大的性能改变。so good


量变产生质变


性能比较函数


上面的基准测试只能得到给定操作的绝对耗时,但是在很多性能问题是发生在两个不同操作之间的相对耗时,比如同一个函数处理1000个元素的耗时与处理1万甚至100万个元素的耗时的差别是多少?再或者对于同一个任务究竟使用哪种算法性能最佳?通常需要对两个不同算法的实现使用相同的输入来进行基准比较测试。


性能比较函数通常是一个带有参数的函数,被多个不同的Benchmark函数传入不同的值来调用。举个例子如下:


func benchmark(b *testing.B, size int){/* ... */}
func Benchmark10(b *testing.B){ benchmark(b, 10) }
func Benchmark100(b *testing.B){ benchmark(b, 100) }
func Benchmark1000(b *testing.B){ benchmark(b, 1000) }


例如编写了一个计算斐波那契数列的函数如下:


// fib.go
// Fib 是一个计算第n个斐波那契数的函数
func Fib(n int) int {
    if n < 2 {
        return n
    }
    return Fib(n-1) + Fib(n-2)
}


编写的性能比较函数如下:


// fib_test.go
func benchmarkFib(b *testing.B, n int) {
    for i := 0; i < b.N; i++ {
        Fib(n)
    }
}
func BenchmarkFib1(b *testing.B)  { benchmarkFib(b, 1) }
func BenchmarkFib2(b *testing.B)  { benchmarkFib(b, 2) }
func BenchmarkFib3(b *testing.B)  { benchmarkFib(b, 3) }
func BenchmarkFib10(b *testing.B) { benchmarkFib(b, 10) }
func BenchmarkFib20(b *testing.B) { benchmarkFib(b, 20) }
func BenchmarkFib40(b *testing.B) { benchmarkFib(b, 40) }


运行基准测试:


split $ go test -bench=.
goos: darwin
goarch: amd64
pkg: github.com/payne/Gp/code_demo/test_demo/fib
BenchmarkFib1-8         1000000000               2.03 ns/op
BenchmarkFib2-8         300000000                5.39 ns/op
BenchmarkFib3-8         200000000                9.71 ns/op
BenchmarkFib10-8         5000000               325 ns/op
BenchmarkFib20-8           30000             42460 ns/op
BenchmarkFib40-8               2         638524980 ns/op
PASS
ok      github.com/payne/Gp/code_demo/test_demo/fib 12.944s


这里需要注意的是,默认情况下,每个基准测试至少运行1秒。如果在Benchmark函数返回时没有到1秒,则b.N的值会按1,2,5,10,20,50,…增加,并且函数再次运行。


最终的BenchmarkFib40只运行了两次,每次运行的平均值只有不到一秒。像这种情况下应该可以使用-benchtime标志增加最小基准时间,以产生更准确的结果。例如:


split $ go test -bench=Fib40 -benchtime=20s
goos: darwin
goarch: amd64
pkg: github.com/payne/Gp/code_demo/test_demo/fib
BenchmarkFib40-8              50         663205114 ns/op
PASS
ok      github.com/payne/Gp/code_demo/test_demo/fib 33.849s


这一次BenchmarkFib40函数运行了50次,结果就会更准确一些了。


使用性能比较函数做测试的时候一个容易犯的错误就是把b.N作为输入的大小,例如以下两个例子都是错误的示范:


// 错误示范1
func BenchmarkFibWrong(b *testing.B) {
    for n := 0; n < b.N; n++ {
        Fib(n)
    }
}
// 错误示范2
func BenchmarkFibWrong2(b *testing.B) {
    Fib(b.N)
}


重置时间


b.ResetTimer之前的处理不会放到执行时间里,也不会输出到报告中,所以可以在之前做一些不计划作为测试报告的操作。例如:


func BenchmarkSplit(b *testing.B) {
    time.Sleep(2 * time.Second) // 假设需要做一些耗时的无关操作
    b.ResetTimer()              // 重置计时器
    for i := 0; i < b.N; i++ {
        strings.Split("山河和河山", "和")
    }
}


并行测试


func (b *B) RunParallel(body func(*PB))会以并行的方式执行给定的基准测试。


RunParallel会创建出多个goroutine,并将b.N分配给这些goroutine执行, 其中goroutine数量的默认值为GOMAXPROCS。用户如果想要增加非CPU受限(non-CPU-bound)基准测试的并行性, 那么可以在RunParallel之前调用SetParallelismRunParallel通常会与-cpu标志一同使用。


func BenchmarkSplitParallel(b *testing.B) {
    // b.SetParallelism(1) // 设置使用的CPU数
    b.RunParallel(func(pb *testing.PB) {
        for pb.Next() {
            Split("山河和河山", "和")
        }
    })
}


执行一下基准测试:


split $ go test -bench=.
goos: darwin
goarch: amd64
pkg: github.com/payne/Gp/code_demo/test_demo/split
BenchmarkSplit-8                10000000               131 ns/op
BenchmarkSplitParallel-8        50000000                36.1 ns/op
PASS
ok      github.com/payne/Gp/code_demo/test_demo/split       3.308s


还可以通过在测试命令后添加-cpu参数如go test -bench=. -cpu 1来指定使用的CPU数量。


Setup与TearDown


测试程序有时需要在测试之前进行额外的设置(setup)或在测试之后进行拆卸

(teardown)。


Go性能优化


做了这么多的测试最终的目的是测试代码有没有写对,性能是否可以优化。接下来进行性能优化与调优


在计算机性能调试领域里,profiling 是指对应用程序的画像,画像就是应用程序使用 CPU 和内存的情况。Go语言是一个对性能特别看重的语言,因此语言中自带了 profiling 的库。


Go语言项目中的性能优化主要有以下几个方面:


  • CPU profile:报告程序的 CPU 使用情况,按照一定频率去采集应用程序在 CPU 和寄存器上面的数据


  • Memory Profile(Heap Profile):报告程序的内存的使用情况


  • Block Profiling:报告 goroutine 不在运行状态的情况,可以用来分析与查找死锁等性能瓶颈


  • Goroutine Profiling:报告 goroutines 的使用情况,有哪些 goroutine,它们的调用关系是怎样的


采集性能数据


Go语言内置了获取程序的运行数据的工具,包括以下两个标准库:


  • runtime/pprof:采集工具型应用运行数据进行分析


  • net/http/pprof:采集服务型应用运行时数据进行分析


pprof开启后,每隔一段时间(10ms)就会收集下当前的堆栈信息,获取各个函数占用的CPU以及内存资源;最后通过对这些采样数据进行分析,形成一个性能分析报告。


pprof应用


如果你的应用程序是运行一段时间就结束退出类型。那么最好的办法是在应用退出的时候把 profiling 的报告保存到文件中,进行分析。对于这种情况,可以使用runtime/pprof库。首先在代码中导入runtime/pprof工具:


import "runtime/pprof"


CPU性能分析


开启CPU性能分析:


pprof.StartCPUProfile(w io.Writer)


停止CPU性能分析:


pprof.StopCPUProfile()


应用执行结束后,就会生成一个文件,保存了 CPU profiling 数据。得到采样数据之后,使用go tool pprof工具进行CPU性能分析。


内存性能优化


记录程序的堆栈信息


pprof.WriteHeapProfile(w io.Writer)


得到采样数据之后,使用go tool pprof工具进行内存性能分析。


go tool pprof默认是使用-inuse_space进行统计,还可以使用-inuse-objects查看分配对象的数量。


服务型应用


如果你的应用程序是一直运行的,比如 web 应用,那么可以使用net/http/pprof库,它能够在提供 HTTP 服务进行分析。


如果使用了默认的http.DefaultServeMux(通常是代码直接使用 http.ListenAndServe(“0.0.0.0:8000”, nil)),只需要在你的web server端代码中按如下方式导入net/http/pprof


import _ "net/http/pprof"


如果你使用自定义的 Mux,则需要手动注册一些路由规则:


r.HandleFunc("/debug/pprof/", pprof.Index)
r.HandleFunc("/debug/pprof/cmdline", pprof.Cmdline)
r.HandleFunc("/debug/pprof/profile", pprof.Profile)
r.HandleFunc("/debug/pprof/symbol", pprof.Symbol)
r.HandleFunc("/debug/pprof/trace", pprof.Trace)


如果你使用的是gin框架,推荐使用github.com/gin-contrib/pprof,在代码中通过以下命令注册pprof相关路由。


pprof.Register(router)


不管哪种方式,你的 HTTP 服务都会多出/debug/pprof endpoint,访问它会得到类似下面的内容:


640 (2).jpg


这个路径下还有几个子页面:


  • /debug/pprof/profile:访问这个链接会自动进行 CPU profiling,并生成一个文件供下载


  • /debug/pprof/heap:Memory Profiling 的路径,访问这个链接会得到一个内存 Profiling 结果的文件


  • /debug/pprof/block:block Profiling 的路径


  • /debug/pprof/goroutines:运行的 goroutines 列表,以及调用关系


  • 。。。。。。


go tool pprof命令


不管是工具型应用还是服务型应用,我们使用相应的pprof库获取数据之后,下一步的都要对这些数据进行分析,我们可以使用go tool pprof命令行工具。


go tool pprof最简单的使用方式为:


go tool pprof [binary] [source]


其中:


  • binary 是应用的二进制文件,用来解析各种符号;


  • source 表示 profile 数据的来源,可以是本地的文件,也可以是 http 地址。


注意事项: 获取的 Profiling 数据是动态的,要想获得有效的数据,请保证应用处于较大的负载(比如正在生成中运行的服务,或者通过其他工具模拟访问压力)。否则如果应用处于空闲状态,得到的结果可能没有任何意义。


命令行交互界面


我们使用go工具链里的pprof来分析一下。


go tool pprof cpu.pprof


执行上面的代码会进入交互界面如下:


runtime_pprof $ go tool pprof cpu.pprof
Type: cpu
Time: Jun 28, 2020 at 11:28am (CST)
Duration: 20.13s, Total samples = 1.91mins (538.60%)
Entering interactive mode (type "help" for commands, "o" for options)
(pprof)


我们可以在交互界面输入top3来查看程序中占用CPU前3位的函数:


(pprof) top3
Showing nodes accounting for 100.37s, 87.68% of 114.47s total
Dropped 17 nodes (cum <= 0.57s)
Showing top 3 nodes out of 4
      flat  flat%   sum%        cum   cum%
    42.52s 37.15% 37.15%     91.73s 80.13%  runtime.selectnbrecv
    35.21s 30.76% 67.90%     39.49s 34.50%  runtime.chanrecv
    22.64s 19.78% 87.68%    114.37s 99.91%  main.logicCode


其中:


  • flat:当前函数占用CPU的耗时


  • flat::当前函数占用CPU的耗时百分比


  • sun%:函数占用CPU的耗时累计百分比


  • cum:当前函数加上调用当前函数的函数占用CPU的总耗时


  • cum%:当前函数加上调用当前函数的函数占用CPU的总耗时百分比


  • 最后一列:函数名称


在大多数的情况下,我们可以通过分析这五列得出一个应用程序的运行情况,并对程序进行优化。


还可以使用list 函数名命令查看具体的函数分析,例如执行list logicCode查看我们编写的函数的详细分析。


图形化


或者可以直接输入web,通过svg图的方式查看程序中详细的CPU占用情况。想要查看图形化的界面首先需要安装graphviz图形化工具。


Mac:


brew install graphviz


Windows: 下载graphviz 将graphviz安装目录下的bin文件夹添加到Path环境变量中

。在终端输入dot -version查看是否安装成功。


640 (3).jpg


关于图形的说明:每个框代表一个函数,理论上框的越大表示占用的CPU资源越多。方框之间的线条代表函数之间的调用关系。线条上的数字表示函数调用的次数。方框中的第一行数字表示当前函数占用CPU的百分比,第二行数字表示当前函数累计占用CPU的百分比。


除了分析CPU性能数据,pprof也支持分析内存性能数据。比如,使用下面的命令分析http服务的heap性能数据,查看当前程序的内存占用以及热点内存对象使用的情况。


# 查看内存占用数据
go tool pprof -inuse_space http://127.0.0.1:8080/debug/pprof/heap
go tool pprof -inuse_objects http://127.0.0.1:8080/debug/pprof/heap
# 查看临时内存分配数据
go tool pprof -alloc_space http://127.0.0.1:8080/debug/pprof/heap
go tool pprof -alloc_objects http://127.0.0.1:8080/debug/pprof/heap


go-torch和火焰图


火焰图(Flame Graph)是 Bredan Gregg 创建的一种性能分析图表,因为它的样子近似 🔥而得名。上面的 profiling 结果也转换成火焰图,如果对火焰图比较了解可以手动来操作,不过这里我们要介绍一个工具:go-torch。这是 uber 开源的一个工具,可以直接读取 golang profiling 数据,并生成一个火焰图的 svg 文件。


安装go-torch


go get -v github.com/uber/go-torch


火焰图 svg 文件可以通过浏览器打开,它对于调用图的最优点是它是动态的:可以通过点击每个方块来 zoom in 分析它上面的内容。


火焰图的调用顺序从下到上,每个方块代表一个函数,它上面一层表示这个函数会调用哪些函数,方块的大小代表了占用 CPU 使用的长短。火焰图的配色并没有特殊的意义,默认的红、黄配色是为了更像火焰而已。


go-torch 工具的使用非常简单,没有任何参数的话,它会尝试从http://localhost:8080/debug/pprof/profile获取 profiling 数据。它有三个常用的参数可以调整:


  • -u –url:要访问的 URL,这里只是主机和端口部分


  • -s –suffix:pprof profile 的路径,默认为 /debug/pprof/profile


  • –seconds:要执行 profiling 的时间长度,默认为 30s


安装 FlameGraph


要生成火焰图,需要事先安装 FlameGraph工具,这个工具的安装很简单(需要perl环境支持),只要把对应的可执行文件加入到环境变量中即可。


  1. 下载安装perl:https://www.perl.org/get.html


  1. 下载FlameGraph:git clone

https://github.com/brendangregg/FlameGraph.git


  1. FlameGraph目录加入到操作系统的环境变量中。


  1. Windows平台,需要把go-torch/render/flamegraph.go文件中的GenerateFlameGraph按如下方式修改,然后在go-torch目录下执行go install即可。


// GenerateFlameGraph runs the flamegraph script to generate a flame graph SVG. func GenerateFlameGraph(graphInput []byte, args ...string) ([]byte, error) {
flameGraph := findInPath(flameGraphScripts)
if flameGraph == "" {
    return nil, errNoPerlScript
}
if runtime.GOOS == "windows" {
    return runScript("perl", append([]string{flameGraph}, args...), graphInput)
}
  return runScript(flameGraph, args, graphInput)
}


压测工具wrk


推荐使用https://github.com/wg/wrkhttps://github.com/adjust/go-wrk


使用go-torch


使用wrk进行压测:


go-wrk -n 50000 http://127.0.0.1:8080/book/list


在上面压测进行的同时,打开另一个终端执行:


go-torch -u http://127.0.0.1:8080 -t 30


30秒之后终端会出现如下提示:Writing svg to torch.svg

然后我们使用浏览器打开torch.svg就能看到如下火焰图了。


火焰图的y轴表示cpu调用方法的先后,x轴表示在每个采样调用时间内,方法所占的时间百分比,越宽代表占据cpu时间越多。通过火焰图我们就可以更清楚的找出耗时长的函数调用,然后不断的修正代码,重新采样,不断优化。


此外还可以借助火焰图分析内存性能数据:


go-torch -inuse_space http://127.0.0.1:8080/debug/pprof/heap
go-torch -inuse_objects http://127.0.0.1:8080/debug/pprof/heap
go-torch -alloc_space http://127.0.0.1:8080/debug/pprof/heap
go-torch -alloc_objects http://127.0.0.1:8080/debug/pprof/heap


pprof与性能测试结合


go test命令有两个参数和 pprof 相关,它们分别指定生成的 CPU 和 Memory profiling 保存的文件:


  • -cpuprofile:cpu profiling 数据要保存的文件地址


  • -memprofile:memory profiling 数据要报文的文件地址


我们还可以选择将pprof与性能测试相结合,比如:


比如下面执行测试的同时,也会执行 CPU profiling,并把结果保存在 cpu.prof 文件中:


go test -bench . -cpuprofile=cpu.prof


比如下面执行测试的同时,也会执行 Mem profiling,并把结果保存在 cpu.prof 文件中:


go test -bench . -memprofile=./mem.prof


需要注意的是,Profiling 一般和性能测试一起使用,这个原因在前文也提到过,只有应用在负载高的情况下 Profiling 才有意义。


referce


李文周-Go性能优化

相关实践学习
通过性能测试PTS对云服务器ECS进行规格选择与性能压测
本文为您介绍如何利用性能测试PTS对云服务器ECS进行规格选择与性能压测。
目录
相关文章
|
22天前
|
SQL 安全 数据库连接
《Go 简易速速上手小册》第6章:错误处理和测试(2024 最新版)(上)
《Go 简易速速上手小册》第6章:错误处理和测试(2024 最新版)
43 1
|
6月前
|
算法 测试技术 Go
【Go 编程实践】从零到一:创建、测试并发布自己的 Go 库
解释了为何需要开发自己的 Go 库,以及如何创建、测试和发布。文章以 Asiatz 库为例,详细阐述了创建目录、初始化项目、编写代码、测试、编写文档和发布等步骤,并强调了开发自己的 Go 库的优点,包括代码复用性、可维护性和可测试性。
243 0
【Go 编程实践】从零到一:创建、测试并发布自己的 Go 库
|
22天前
|
JSON 测试技术 Go
《Go 简易速速上手小册》第6章:错误处理和测试(2024 最新版)(下)
《Go 简易速速上手小册》第6章:错误处理和测试(2024 最新版)
43 0
|
11天前
|
安全 测试技术 Go
Golang深入浅出之-Go语言单元测试与基准测试:testing包详解
【4月更文挑战第27天】Go语言的`testing`包是单元测试和基准测试的核心,简化了测试流程并鼓励编写高质量测试代码。本文介绍了测试文件命名规范、常用断言方法,以及如何进行基准测试。同时,讨论了测试中常见的问题,如状态干扰、并发同步、依赖外部服务和测试覆盖率低,并提出了相应的避免策略,包括使用`t.Cleanup`、`t.Parallel()`、模拟对象和检查覆盖率。良好的测试实践能提升代码质量和项目稳定性。
16 1
|
7月前
|
关系型数据库 测试技术 Go
Go语言微服务框架 - 5.GORM库的适配sqlmock的单元测试
与此同时,我们也缺乏一个有效的手段来验证自己编写的相关代码。如果依靠连接到真实的MySQL去验证功能,那成本实在太高。那么,这里我们就引入一个经典的sqlmock框架,并配合对数据库相关代码的修改,来实现相关代码的可测试性。
76 0
|
3月前
|
IDE 测试技术 程序员
浅谈Go单元测试
浅谈Go单元测试
20 0
|
4月前
|
Cloud Native 测试技术 Go
云原生系列Go语言篇-编写测试Part 2
在花时间坠入优化的深渊之前,请明确程序需要进行优化。如果程序已经足够快,满足了响应要求,并且使用的内存量在接受范围之内,那么将时间花在新增功能和修复bug上会更好。业务的需求决定了何为"足够快"和"接受范围之内"
32 2
|
4月前
|
存储 Cloud Native 测试技术
云原生系列Go语言篇-编写测试Part 1
2000年以来,自动化测试的广泛应用可能比任何其他软件工程技术都更能提高代码质量。Go是一种专注于提高软件质量的语言和生态系统,很自然的在其标准库中包含了测试支持。
51 3
|
5月前
|
算法 Java 测试技术
go语言中的测试
go语言中的测试
46 0
|
5月前
|
缓存 自然语言处理 安全
Go Fuzzing(模糊测试)
Go Fuzzing(模糊测试)

热门文章

最新文章