linux下定位多线程内存越界问题实践总结

简介: linux下定位多线程内存越界问题实践总结

c/c++ linux后台服务器开发学习地址:https://ke.qq.com/course/417774?flowToken=1013300

最近定位了在一个多线程服务器程序(OceanBase MergeServer),一个线程非法篡改另一个线程的内存而导致程序core掉的问题。定位这个问题历经曲折,尝试了各种内存调试的办法。往往感觉就要柳暗花明了,却发现又进入了另一个死胡同。最后,使用强大的mprotect+backtrace+libsigsegv等工具成功定位了问题。整个定位过程遇到的问题和解决办法对于多线程内存越界问题都很典型,简单总结一下和大家分享。

现象

core是在系统集成测试过程中发现的。服务器程序MergeServer有一个50个工作线程组成的线程池,当使用8个线程的测试程序通过MergeServer读取数据时,后者偶尔会core掉。用gdb查看core文件,发现core的原因是一个指针的地址非法,当进程访问指针指向的地址时引起了段错误(segment fault)。见下图。

640.png


发生越界的指针ptr_位于一个叫做cname_的对象中,而这个对象是一个动态数组field_columns_的第10个元素的成员。如下图。


复现问题

之后,花了2天的时间,终于找到了重现问题的方法。重现多次,可以观察到如下一些现象:

1. 随着客户端并发数的加大(从8个线程到16个线程),出core的概率加大;

2. 减少服务器端线程池中的线程数(从50个到2个),就不能复现core了。

3. 被篡改的那个指针,总是有一半(高4字节)被改为了0,而另一半看起来似乎是正确的。

4. 请看前一节,重现多次,每次出core,都是因为field_columns_这个动态数组的第10个元素data_[9]的cname_成员的ptr_成员被篡改。这是一个不好解释的奇怪现象。

5. 在代码中插入检查点,从field_columns_中内容最初产生到读取导致越界的这段代码序列中“埋点”,既使用二分查找法定位篡改cname_的代码位置。结果发现,程序有时core到检查点前,有时又core到检查点后。

综合以上现象,初步判断这是一个多线程程序中内存越界的问题。

使用glibc的MALLOC_CHECK_

因为是一个内存问题,考虑使用一些内存调试工具来定位问题。因为OB内部对于内存块有自己的缓存,需要去除它的影响。修改OB内存分配器,让它每次都直接调用c库的malloc和free等,不做缓存。然后,可以使用glibc内置的内存块完整性检查功能。

使用这一特性,程序无需重新编译,只需要在运行的时候设置环境变量MALLOC_CHECK_(注意结尾的下划线)。每当在程序运行过程free内存给glibc时,glibc会检查其隐藏的元数据的完整性,如果发现错误就会立即abort。用类似下面的命令行启动server程序:

export MALLOC_CHECK_=2
bin/mergeserver -z 45447 -r 10.232.36.183:45401 -p45441

使用MALLOC_CHECK_以后,程序core到了不同的位置,是在调用free时,glibc检查内存块前面的校验头错误而abort掉了。如下图。

640.png


但这个core能带给我们信息也很少。我们只是找到了另外一种稍高效地重现问题的方法而已。或许最初看到的core的现象是延后显现而已,其实“更早”的时刻内存就被破坏掉了。

valgrind

glibc提供的MALLOC_CHECK_功能太简单了,有没有更高级点的工具不光能够报告错误,还能分析出问题原因来?我们自然想到了大名鼎鼎的valgrind。用valgrind来检查内存问题,程序也不需要重新编译,只需要使用valgrind来启动:

nohup valgrind --error-limit=no --suppressions=suppress bin/mergeserver -z 45447 -r 10.232.36.183:45401 -p45441 >nohup.out &

默认情况下,当valgrind发现了1000中不同的错误,或者总数超过1000万次错误后,会停止报告错误。加了--error-limit=no以后可以禁止这一特性。--suppressions用来屏蔽掉一些不关心的误报的问题。经过一翻折腾,用valgrind复现不了core的问题。valgrind报出的错误也都是一些与问题无关的误报。大概是因为valgrind运行程序大约会使程序性能慢10倍以上,这会影响多线程程序运行时的时序,导致core不能复现。此路不通。

magic number

既然MALLOC_CHECK_可以检测到程序的内存问题,我们其实想知道的是谁(哪段代码)越了界。此时,我们想到了使用magic number填充来标示数据结构的方法。如果我们在被越界的内存中看到了某个magic number,就知道是哪段代码的问题了。

首先,修改对于malloc的封装函数,把返回给用户的内存块填充为特殊的值(这里为0xEF),并且在开始和结束部分各多申请24字节,也填充为特殊值(起始0xBA,结尾0xDC)。另外,我们把预留内存块头部的第二个8字节用来存储当前线程的ID,这样一旦观察到被越界,我们可以据此判定是哪个线程越的界。代码示例如下。


然后,在用户程序通过我们的free入口释放内存时,对我们填充到边界的magic number进行检查。同时调用mprobe强制glibc对内存块进行完整性检查。

640.png

最后,给程序中所有被怀疑的关键数据结构加上magic number,以便在调试器中检查内存时能识别出来。例如


好了,都加好了。用MALLOC_CHECK_的方式重新运行。程序如我们所愿又core掉了,检查被越界位置的内存:

640.png


如上图,红色部分是我们自己填充的越界检查头部,可以看到它没有被破坏。其中第二行存储的线程号经过确认确实等于我们当前线程的线程号。

蓝色部分为前一个动态内存分配的结尾,也是完整的(24个字节0xdc)。0x44afb60和0x44afb68两行所示的内存为glibc malloc存储自身元数据的地方,程序core掉的原因是它检查这两行内容的完整性时发现了错误。由此推断,被非法篡改的内容小于16个字节。仔细观察这16字节的内容,我们没有看到熟悉的magic number,也就无法推知有bug的代码是哪块。这和我们最初发现的core的现象相互印证,很可能被非法修改的内容仅为4个字节(int32_t大小)。

另外,虽然我们加宽了检查边界,程序还是会core到glibc malloc的元数据处,而不是我们添加的边界里。而且,我们总可以观察到前一块内存(图中蓝色所示)的结尾完整的,没被破坏。这说明,这不是简单的内存访问超出边界导致的越界。我们可以大胆的做一下猜测:要么是一块已经释放的内存被非法重用了;要么这是通过野指针“空投”过来的一次内存修改。

如果我们的猜测是正确的,那么我们用这种添加内存边界的方式检查内存问题的方法几乎必然是无效的。

打怪利器electric-fence

至此,我们知道某个时间段内某个变量的内存被其他线程非法修改了,但是却无法定位到是哪个线程哪段代码。这就好比你明明知道未来某个时间段在某个地点会发生凶案,却没办法看到凶手。无比郁闷。

有没有办法能检测到一个内存地址被非法写入呢?有。又一个大名鼎鼎的内存调试库electric-fence(简称efence)就华丽登场了。

使用MALLOC_CHECK_或者magic number的方式检测的最大问题是,这种检查是“事后”的。在多线程的复杂环境中,如果不能发生破坏的第一时间检查现场,往往已经不能发现罪魁祸首的蛛丝马迹了。

electric-fence利用底层硬件(CPU提供的虚拟内存管理)提供的机制,对内存区域进行保护。实际上它就是使用了下一节我们要自己编码使用的mprotect系统调用。当被保护的内存被修改时,程序会立即core掉,通过检查core文件的backtrace,就容易定位到问题代码。

这个库的版本有点混乱,容易弄错。搜索和下载这个库时,我才发现,electric-fence的作者也是大名鼎鼎的busybox的作者,牛人一枚。但是,这个版本在linux上编译连接到我的程序的时候会报WARNING,而且后面执行的时候也会出错。后来,找到了debian提供的一个更高版本的库,估计是社区针对linux做了改进。

使用efence需要重新编译程序。efence编译后提供了一个静态库libefence.a,它包含了能够替代glibc的malloc, free等库函数的一组实现。编译时需要一些技巧。首先,要把-lefence放到编译命令行其他库之前;其次,用-umalloc强制g++从libefence中查找malloc等本来在glibc中包含的库函数:

g++ -umalloc –lefence …

用strings来检查产生的程序是否真的使用了efence:


和很多工具类似,efence也通过设置环境变量来修改它运行时的行为。通常,efence在每个内存块的结尾放置一个不可访问的页,当程序越界访问内存块后面的内存时,就会被检测到。如果设置EF_PROTECT_BELOW=1,则是在内存块前插入一个不可访问的页。通常情况下,efence只检测被分配出去的内存块,一个块被分配出去后free以后会缓存下来,直到一下次分配出去才会再次被检测。而如果设置了EF_PROTECT_FREE=1,所有被free的内存都不会被再次分配出去,efence会检测这些被释放的内存是否被非法使用(这正是我们目前怀疑的地方)。但因为不重用内存,内存可能会膨胀地很厉害。

我使用上面2个标记的4种组合运行我们的程序,遗憾的是,问题无法复现,efence没有报错。另外,当EF_PROTECT_FREE=1时,运行一段时间后,MergeServer的虚拟内存很快膨胀到140多G,导致无法继续测试下去。又进入了一个死胡同。

终极神器mprotect + backtrace + libsigsegv

electric-fence的神奇能力实际上是使用系统调用mprotect实现的。mprotect的原型很简单,

int mprotect(const void *addr, size_t len, int prot);

mprotect可以使得[addr,addr+len-1]这段内存变成不可读写,只读,可读写等模式,如果发生了非法访问,程序会收到段错误信号SIGSEGV。

但mprotect有一个很强的限制,要求addr是页对齐的,否则系统调用返回错误EINVAL。这个限制和操作系统内核的页管理机制相关。



如图,我们已经知道这个动态数组的第10个元素会被非法越界修改。review了代码,发现从这个数组内容初始化完毕以后,到使用这个数组内容这段时间,不应该再有修改操作。那么,我们就可以在数组内容被初始化之后,立即调用mprotect对其进行只读保护。

尝试一

因为mprotect要求输入的内存地址页对齐,所以我修改了动态数组的实现,每次申请内存块的时候多分配一个页大小,然后取页对齐的地址为第一个元素的起始位置。


如上图,浅蓝色部分为为了对齐内存地址而做的padding。代码见下

640.png


动态数组申请的最小内存块的大小为64KB。这里,动态数组中每个元素的大小为80字节,我们只需要从第1个元素开始保护一个页的大小即可:


既然这个保护区域是程序中自动插入的,需要在内存释放给系统前回复它为可读写,否则必然会因mprotect产生段错误。

640.png


好了,编译、重启、运行重现脚本。悲剧了。程序运行了很久都不再出core了,无法复现问题。我们在分配动态数组内存时,为了对齐在内存块前添加的padding导致程序运行时的内存分布和原来产生core的运行环境不同了。这可能是无法复现的原因。要想复现,我们不能破坏原来的内存分配方式。

尝试二

不改变动态数组的内存块申请方式,又要满足mprotect保护的地址必须页对齐的要求,怎么做呢?我们换一个思路,从第10个元素向前,找到包含它且离它最近的页对齐的内存地址。如下图


但这样会造成一个问题。图中浅蓝色部分本不是这个动态数组对象所拥有的内存,它可能被其他任何线程的任何数据结构在使用。我们使用这种方式保护红色区域,会有很多无关的落入蓝色区域的修改操作导致mprotect产生段错误。

实验了一下,果然,程序跑起来不久就在其他无关的代码处产生了段错误。这种保护方式的代码如下:

640.png

成功

在上一节的保护方式下,我们因为保护了无关内存区域,会导致程序过早产生SIGSEGV而退出。我们能否截获信号,不让程序在非法访问mprotect保护区域后仍然能继续执行呢?当然。我们可以定制一个SIGSEGV段错误信号的处理函数。在这个处理函数中,如果能打印段错误时候的当前调用栈,就可以找到罪魁祸首了。

640.png

代码如上图。注意,处理SIGSEGV的handler函数有一些小技巧(坑很多):

1. SIGSEGV一般是内核处理的(page fault)。使用库libsigsegv可以简化用户空间撰写处理函数的难度。

2. 处理函数中,不能调用任何可能再分配内存的函数,否则会引起double fault。例如,在这段处理函数中,使用open系统调用打开文件,不能使用fopen;buff是从栈上分配的,不能从heap上申请;不能使用backtrace_symbols,它会向glibc动态申请内存,而要使用安全的backtrace_symbols_fd把backtrace直接写入文件。

3. 最重要的,在SIGSEGV的处理函数中,我们需要恢复引起段错误的内存块为可读写的。这样,当处理函数返回被中断的代码继续执行时,才不能再次引起段错误。重新编译代码,运行重现脚本。查看记录了backtrace的文件sigsegv.bt,我们看到了熟悉的被篡改的指针地址(一半为0):

640.png

这个段错误会最终导致程序core掉,因为这个SIGSEGV信号不是由我们使用mprotect的保护而产生的。查看core文件,可以查到被越界的内存(即ptr_)的地址。从sigsegv.bt文件中查找,果然找到了那一次非法访问:

640.png

使用addr2line检查上面这个调用栈中的地址,我们终于找到了它。又经过一番代码review和验证,才总算确定了错误原因。有一个动态new出来的对象的指针在两个有关联的线程中共享,在某种极端情况下,其中一个delete了对象之后,另一个线程又修改了这个对象。

小结

小结一下,遇到棘手的内存越界问题,可以使用下面顺序逐个尝试:

1. code review分析代码。

2. valgrind用起来最简单,几乎是傻瓜式的。能用尽量用。

3. glibc的MALLOC_CHECK_使用起来和很简单,不需要重现编译代码。可以用来发现问题,但是其本身无法定位问题。和magic number结合起来,可以用来定位一类内存越界的问题。

4. 和electric-fence齐名的还有一个内存调试库叫做dmalloc。虽然在本次解决问题的过程中没有用到,这个库对于检测内存泄露等其他问题很有用。推荐大家学习一下,放到自己的工具库中。

5. electric-fence是定位一类“野指针”访问问题的利器,强烈推荐使用。

6. 如果上述所有工具都帮不了你,那么只好在熟悉代码逻辑的基础上,使用终极武器了。

7. code review。通过尝试代码库中不同版本编译出来的程序复现bug,用二分法定位引入bug的最早的一次代码提交。

关于c/c++ linux后台服务器开发学习视频资料,学习大纲路线图

640.png

640.jpg

相关文章
|
8天前
|
缓存 Linux
linux 手动释放内存
在 Linux 系统中,内存管理通常自动处理,但业务繁忙时缓存占用过多可能导致内存不足,影响性能。此时可在业务闲时手动释放内存。
58 17
|
11天前
|
消息中间件 Linux
Linux:进程间通信(共享内存详细讲解以及小项目使用和相关指令、消息队列、信号量)
通过上述讲解和代码示例,您可以理解和实现Linux系统中的进程间通信机制,包括共享内存、消息队列和信号量。这些机制在实际开发中非常重要,能够提高系统的并发处理能力和数据通信效率。希望本文能为您的学习和开发提供实用的指导和帮助。
71 20
|
1月前
|
算法 Linux
深入探索Linux内核的内存管理机制
本文旨在为读者提供对Linux操作系统内核中内存管理机制的深入理解。通过探讨Linux内核如何高效地分配、回收和优化内存资源,我们揭示了这一复杂系统背后的原理及其对系统性能的影响。不同于常规的摘要,本文将直接进入主题,不包含背景信息或研究目的等标准部分,而是专注于技术细节和实际操作。
|
1月前
|
监控 算法 Linux
Linux内核锁机制深度剖析与实践优化####
本文作为一篇技术性文章,深入探讨了Linux操作系统内核中锁机制的工作原理、类型及其在并发控制中的应用,旨在为开发者提供关于如何有效利用这些工具来提升系统性能和稳定性的见解。不同于常规摘要的概述性质,本文将直接通过具体案例分析,展示在不同场景下选择合适的锁策略对于解决竞争条件、死锁问题的重要性,以及如何根据实际需求调整锁的粒度以达到最佳效果,为读者呈现一份实用性强的实践指南。 ####
|
1月前
|
缓存 监控 网络协议
Linux操作系统的内核优化与实践####
本文旨在探讨Linux操作系统内核的优化策略与实际应用案例,深入分析内核参数调优、编译选项配置及实时性能监控的方法。通过具体实例讲解如何根据不同应用场景调整内核设置,以提升系统性能和稳定性,为系统管理员和技术爱好者提供实用的优化指南。 ####
|
2月前
|
缓存 Ubuntu Linux
Linux环境下测试服务器的DDR5内存性能
通过使用 `memtester`和 `sysbench`等工具,可以有效地测试Linux环境下服务器的DDR5内存性能。这些工具不仅可以评估内存的读写速度,还可以检测内存中的潜在问题,帮助确保系统的稳定性和性能。通过合理配置和使用这些工具,系统管理员可以深入了解服务器内存的性能状况,为系统优化提供数据支持。
65 4
|
2月前
|
存储 算法 安全
深入理解Linux内核的内存管理机制
本文旨在深入探讨Linux操作系统内核的内存管理机制,包括其设计理念、实现方式以及优化策略。通过详细分析Linux内核如何处理物理内存和虚拟内存,揭示了其在高效利用系统资源方面的卓越性能。文章还讨论了内存管理中的关键概念如分页、交换空间和内存映射等,并解释了这些机制如何协同工作以提供稳定可靠的内存服务。此外,本文也探讨了最新的Linux版本中引入的一些内存管理改进,以及它们对系统性能的影响。
|
26天前
|
NoSQL Redis
单线程传奇Redis,为何引入多线程?
Redis 4.0 引入多线程支持,主要用于后台对象删除、处理阻塞命令和网络 I/O 等操作,以提高并发性和性能。尽管如此,Redis 仍保留单线程执行模型处理客户端请求,确保高效性和简单性。多线程仅用于优化后台任务,如异步删除过期对象和分担读写操作,从而提升整体性能。
56 1
|
3月前
|
存储 消息中间件 资源调度
C++ 多线程之初识多线程
这篇文章介绍了C++多线程的基本概念,包括进程和线程的定义、并发的实现方式,以及如何在C++中创建和管理线程,包括使用`std::thread`库、线程的join和detach方法,并通过示例代码展示了如何创建和使用多线程。
71 1
|
3月前
|
Java 开发者
在Java多线程编程中,创建线程的方法有两种:继承Thread类和实现Runnable接口
【10月更文挑战第20天】在Java多线程编程中,创建线程的方法有两种:继承Thread类和实现Runnable接口。本文揭示了这两种方式的微妙差异和潜在陷阱,帮助你更好地理解和选择适合项目需求的线程创建方式。
48 3