一个内存增长问题的分析和处理(三)

简介: 和框架部门的同事一起,经过valgrind大量的测试和验证,并没有发现有确切的内存泄露的代码段。对于C和C++程序,出现内存增长,可能我们很自然的就去内存泄露方面去思考,有时候,这种方向可能不一定对。        在解决这个问题的过程中,生成上又出现了另外一个内存增长的问题。

和框架部门的同事一起,经过valgrind大量的测试和验证,并没有发现有确切的内存泄露的代码段。对于C和C++程序,出现内存增长,可能我们很自然的就去内存泄露方面去思考,有时候,这种方向可能不一定对。

        在解决这个问题的过程中,生成上又出现了另外一个内存增长的问题。这次的现象很明显,就是一个进程,能清晰的看到内存在不断的增长,进程停止后,内存就直接释放,下次还是会缓慢增长。大家的思路就是检查下代码,看看有没有内存泄露,由于程序中没有使用new 和 malloc的地方,所以不存在直接的内存操作。这样就比较难定位内存泄露,并且valgrind的信息,也看不出来有内存泄露。后来经过分析可能是程序是通过while(true)的写法来对数据进行循环扫描处理的,而在这个中间,会把对内存数据库的操作信息,存放在Session中,由于没有调用清理session的接口,所以session中的数据结构越来越大,所以才导致内存不断的增长。后来修改了代码,调用了清理Session的接口后,内存恢复正常。

        有了这个问题的思路,我又回过头来看之前遇到的这个问题:

        1、这个问题出现的情况,是数据库存在异常的情况

   2、看日志,是不断的去连接,可能是数据库连接没释放

     3、如果数据库连接没释放,会不会Session数据不断地增加呢

         如何验证这个问题,是一个比较困难的事情,我试了下,当数据库抛出异常,对数据库连接不做释放,接着调用的情况,此时会出现内存增长的情况。可以确定数据库连接不释放,session中结构会不断增长。

        但是至于数据库连接为何释放不了,这个问题,还需要框架部门的同事进一步分析。

        有时候,换个思路,问题也就很容易解释清楚了。

   come on !

目录
相关文章
|
1月前
|
分布式计算 负载均衡 监控
大数据增加分区数量
【11月更文挑战第4天】
33 3
|
29天前
|
存储 分布式计算 监控
大数据增加分区减少单个任务的负担
大数据增加分区减少单个任务的负担
31 1
|
1月前
|
存储 分布式计算 大数据
大数据减少单个分区的数据量
【11月更文挑战第3天】
44 2
|
3月前
|
存储 算法 NoSQL
11)面对千万级别的 key 应该如何节省内存
11)面对千万级别的 key 应该如何节省内存
33 0
11)面对千万级别的 key 应该如何节省内存
|
7月前
|
存储 缓存 大数据
LabVIEW TDMS连续写入内存增长
LabVIEW TDMS连续写入内存增长
96 4
|
7月前
|
存储 安全 C++
联合:节省内存利器
联合:节省内存利器
|
SQL 存储 OLAP
2G内存搞定一亿数据的分析引擎
EuclidOLAP是一个可以在低配置服务器上执行上亿数据量分析并且快速响应和支持复杂查询的开源OLAP数据库。
140 2
|
人工智能 安全 5G
数字弹性:消费者调查发现有足够的增长空间
数字弹性:消费者调查发现有足够的增长空间
102 0
|
缓存 JSON 监控
GuavaCache与物模型大对象引起的内存暴涨分析
物模型是对设备在云端的功能描述,包括设备的属性、服务和事件。 本文记录线上环境,大量设备上报数据,进行物模型校验引起的一次内存告警分析。
2062 15
|
存储 弹性计算 NoSQL
突破内存应用瓶颈,让IT成本下降40%的秘诀
近两年5G、大数据、云计算一直为行业热点,数字化进程不断加速,全行业数据开始爆发式增长。面对数据的迅猛增长,企业一方面享受着数据化转型带来的红利,另一方面也承担着大内存运行实例的高额开支。传统内存面临挑战,持久内存方案开始受到了行业更多的关注。
突破内存应用瓶颈,让IT成本下降40%的秘诀