记一次线上Go服务内存占用异常问题排查

简介: 记一次线上Go服务内存占用异常问题排查

背景


最近线上有个服务内存异常增长, 默认服务启动实存应该是25M左右, 但是这个服务运行了一段时间实存达到了32G的量级, 并且还在缓慢增长, QA重启之后内存就恢复到了初始水准, 需要我们定位一下内存异常的问题进行解决


0b7079eb67ca4170a73c5a884869a5b4.png

过程


整吧那就, pprof整起来, 在main 函数增加三行代码

import _ "net/http/pprof"
func main() {
  go func() {
    _ = http.ListenAndServe("0.0.0.0:6060", nil)
  }()
}

点进源码就看见它会注册5个接口, 用来查看维度数据

9418bb2057e74ae1b3216a69e3b358d7.png

代码部署上去之后用top命令可以看到服务占用实存确实是在缓慢增加, 想单看这个服务的top可以用 top -p pid 指定进程id查看

e6dc63cfaf7f4a23bbd84464e20b56d3.png


里面 VIRT 是虚存, 即程序申请的内存; RES就是实存了, 即当前程序已经占用的内存

等服务跑一会就可以进网址http://127.0.0.1:6060/debug/pprof上查看服务占用情况了

9a13920b5d2c4b24a0aa55f1667fc910.png


也可以在命令行里面进行交互, 因为要查内存问题, 所以就直接看堆占用

go tool pprof http://127.0.0.1:6060/debug/pprof/heap

用top命令可以查看占用前十的函数

(pprof) top
Showing nodes accounting for 4109.08kB, 100% of 4109.08kB total
Showing top 10 nodes out of 91
      flat  flat%   sum%        cum   cum%
    1028kB 25.02% 25.02%     1028kB 25.02%  bufio.NewReaderSize (inline)
  518.02kB 12.61% 37.62%   518.02kB 12.61%  go.uber.org/zap/buffer.(*Buffer).AppendByte
  514.38kB 12.52% 50.14%   514.38kB 12.52%  encoding/json.typeFields
  512.44kB 12.47% 62.61%   512.44kB 12.47%  encoding/pem.Decode
  512.19kB 12.46% 75.08%   512.19kB 12.46%  runtime.malg
  512.05kB 12.46% 87.54%   512.05kB 12.46%  regexp.newOnePassMachine
  512.01kB 12.46%   100%   512.01kB 12.46%  github.com/jinzhu/gorm.(*Scope).getModelStruct
         0     0%   100%     1028kB 25.02%  bufio.NewReader
         0     0%   100%   512.44kB 12.47%  crypto/tls.(*Conn).Handshake
         0     0%   100%   512.44kB 12.47%  crypto/tls.(*Conn).clientHandshake

可以看到还都比较正常, 没有异常占用的函数; 这样的话就再看一眼网页版的堆占用情况

http://127.0.0.1:6060/debug/pprof/heap?debug=1

6700ac4e130341e2af087c3d79d4880d.png


可以看到有很多关于 GetTransactionLevelList 这个方法的占用, 在项目里找到这个方法就很容易就定位到了一行异常代码

context.Set(_r, "key", val)


查看一下源代码


8bf161eabedc4cb394fc3f6281551f99.png

发现这是 gorilla 里面对当前请求存储特定键值的一个包, 关键是代码调用只有插入(Set)没有删除(Clear), 导致底层 data 和datat 一直在储存所有请求的数据及时间戳;

9b1cf4369dec406e8d5b6a1e5f33711c.png

这就是这个服务内存异常的原因, 坑的是发现竟然连Get方法都没有调用, 相当于只存不用…emmm由于这块代码是已经离职的同事写的, 检查没用就直接干掉了, 顺便把所有的服务都自查了一下, 相对应的方法都清理了一遍;

改完代码重新部署服务, 果然内存稳定在了初始水准, 问题解决;


结束


这次问题解决是比较顺利的, pprof还有很多好用的可视化界面(需要安装 graphviz) 以及火焰图(需要安装原生pprof工具)供调用分析, 有兴趣的可以看下面两篇博客去实验玩一玩

目录
相关文章
|
4月前
|
缓存 弹性计算 API
用 Go 快速开发一个 RESTful API 服务
用 Go 快速开发一个 RESTful API 服务
|
1月前
|
编译器 Go
探索 Go 语言中的内存对齐:为什么结构体大小会有所不同?
在 Go 语言中,内存对齐是优化内存访问速度的重要概念。通过调整数据在内存中的位置,编译器确保不同类型的数据能够高效访问。本文通过示例代码展示了两个结构体 `A` 和 `B`,尽管字段相同但排列不同,导致内存占用分别为 40 字节和 48 字节。通过分析内存布局,解释了内存对齐的原因,并提供了优化结构体字段顺序的方法,以减少内存填充,提高性能。
42 3
|
1月前
|
Go UED
Go Web服务中如何优雅平滑重启?
在生产环境中,服务升级时如何确保不中断当前请求并应用新代码是一个挑战。本文介绍了如何使用 Go 语言的 `endless` 包实现服务的优雅重启,确保在不停止服务的情况下完成无缝升级。通过示例代码和测试步骤,详细展示了 `endless` 包的工作原理和实际应用。
50 3
|
1月前
|
JSON Go UED
Go Web服务中如何优雅关机?
在构建 Web 服务时,优雅关机是一个关键的技术点,它确保服务关闭时所有正在处理的请求都能顺利完成。本文通过一个简单的 Go 语言示例,展示了如何使用 Gin 框架实现优雅关机。通过捕获系统信号和使用 `http.Server` 的 `Shutdown` 方法,我们可以在服务关闭前等待所有请求处理完毕,从而提升用户体验,避免数据丢失或不一致。
26 1
|
1月前
|
Java 编译器 测试技术
go语言避免不必要的内存分配
【10月更文挑战第18天】
50 1
|
1月前
|
存储 算法 Java
Go语言的内存管理机制
【10月更文挑战第25天】Go语言的内存管理机制
35 2
|
3月前
|
监控 Java Linux
redisson内存泄漏问题排查
【9月更文挑战第22天】在排查 Redisson 内存泄漏问题时,首先需确认内存泄漏的存在,使用专业工具(如 JProfiler)分析内存使用情况,检查对象实例数量及引用关系。其次,检查 Redisson 使用方式,确保正确释放资源、避免长时间持有引用、检查订阅和监听器。此外,还需检查应用程序其他部分是否存在内存泄漏源或循环引用等问题,并考虑更新 Redisson 到最新版本以修复潜在问题。
132 5
|
3月前
|
Go API 开发者
深入探讨:使用Go语言构建高性能RESTful API服务
在本文中,我们将探索Go语言在构建高效、可靠的RESTful API服务中的独特优势。通过实际案例分析,我们将展示Go如何通过其并发模型、简洁的语法和内置的http包,成为现代后端服务开发的有力工具。
|
4月前
|
存储 安全 编译器
Go 内存分布
该文章深入分析了Go语言中值的内存分布方式,特别是那些分布在多个内存块上的类型,如切片、映射、通道、函数、接口和字符串,并讨论了这些类型的内部结构和赋值时的行为,同时指出了“引用类型”这一术语在Go中的使用可能会引起的误解。
58 5
Go 内存分布
|
4月前
|
安全 Go Docker
Go服务Docker Pod不断重启排查和解决
该文章分享了Go服务在Docker Pod中不断重启的问题排查过程和解决方案,识别出并发写map导致fatal error的问题,并提供了使用sync.Map或concurrent-map库作为并发安全的替代方案。
55 4