一场足球盛宴的终结:日帐延迟寻因记

简介:
盛宴开端 


大年初三,酒足饭饱后,拉着亲朋好友就这么餐桌上一围,小赌正式开始。正要胡牌时,手机响了。一看竟然是客户的电话!难道是给我拜年么?!应该不是,昨天就拜过了。难道出什么问题了?!果然。。这来的也太不是时候了。不过作为一个资深的运维DBA,对于这种7*24*365式实时守候待命的日子早就习以为常。麻将顺势一推,迅速更换为笔记本,开始一段抽丝拨茧之旅!


> 2 问题概述 


2016年02月10日,某省账务库日账出现严重延迟现象,期间其他应用运行正常。


> 3 数据采集 


对于这种性能突变的问题,还是采取老套路,采集“凶案现场”情况如下:


注:(性能突变的数据库为11g R2 RAC)


1、两节点的数据库alert日志信息。


2、两节点问题时间段的snapshot(注:收集多份及正常时间段的AWR报告进行对比分析)。


3、两节点问题时间段及前后一小时的OSW日志。


4、两节点问题时间段所有相关trace信息。


20160328071304300.jpg


5、问题时间段的ASH DUMP数据。


20160328071311629.jpg


> 4 日志剖析 


1、通过LGWR的trace信息,我们可以发现问题时段log write写超过500ms的告警,说明当时redo IO性能应该存在一些问题。


20160328071319420.jpg


2、通过分析ASH DUMP信息我们可发现,44%的会话被log file sync堵塞,同时 log file sync在等待log file parallel write 。


20160328071326679.jpg


3、通过查看AWR报告我们可以发现,log file sync等待高达431ms,同时出现大量GC等待事件,并且出现log buffer space等待事件。 


20160328071334664.jpg


那么导致该问题是由于log_buffer配置太小?还是redo log太小导致redo log切换过于频繁?如果是的话,那么为什么2月10号前的日账没有问题,该结论不成立!那么应用端是否存在变化?! 


4、针对TOP中大量的GC等待,我们对比分析了1月10日跟2月10日的Global Cache统计数据,发现事发时段GC接收的块较以往增幅20%,同时私网流量也从21M上升到26M,GC交互的增加是否可以说明应用侧做了调整呢?!


20160328071401155.jpg


通过咨询应用维护人员,我了解到,日账数据量会伴随时间的推移而增加,同时日账的时间同步也会有所延迟。如下图所示:


20160328071411632.jpg

 

20160328071424625.jpg


虽然日账数据量及执行时间在同一月内会伴随时间的推移而增加,但是通过上面的“日结时间对比”图可以看出,2月10日的日账时间明显突增,说明导致该问题的还有其他原因。


5、通过问题前后的AWR报告对比分析,我们发现,在2月10日之后,ROLLBACKS从之前的每秒0.5次增长至每秒3.5次,增长了7倍。


20160328071443871.jpg


6、通过分析log file sync发现,自10号凌晨开始数据库写入时间较之前出现明显上升。


20160328071451908.jpg


问题时段log file sync/log file parallel write较之前开始出现明显下降,如下表所示:


20160328071458912.jpg


7、通过OSW的VMSTAT数据,我们也可以发现,在批量日账未运行之时,B列值相对较低,在问题时间段B列在10以上,这说明所有的CPU都是pending在I/O层面。


20160328071507681.jpg


8、通过OSW的MPSTAT数据,我们也可以发现,问题时间段部分磁盘始终处于100%busy的状态,而且磁盘平均服务时间在80ms以上。 


20160328071514706.jpg

 

> 5 剖析总结 


综上所述,主要有以下几方面的影响因素:


  • log file sync及log file parallel write 性能明显下降, redo IO性能变差导致GC严重及数据库性能严重下降。需要主机及存储厂商配合确认。

  • 应用侧是否存在调整,导致GC交互的增加及其他引发问题。需要应用侧配合确认。

  • 问题前后的每秒rollback次数增长了7倍,建议协调应用一起排查rollbacks异常增长的原因。


> 6 足球大战 


通过分析,问题可能出现在主机or存储or应用层面上,通过逐个沟通确认,得到回复如下:


主机球员:


通过分析,主机侧未发现异常,还请知悉!


存储球员:


从我这边看是正常的,没有出现瓶颈或者非常慢的情况。


应用球员:


你好,

通过应用侧核实,在日账问题前后属于春节封网时段,无任何应用变更。


足联主席:


To DB运维组

请尽快完成日帐问题定位,为了避免影响月底出账,请务必在月底前完成定位并修复。


> 7 点球终结 


通过一轮咨询,各组成员都反馈尚未发现异常,怎么办?!都没异常,那日账为何会突然延迟呢?!此时球兜了一圈又回到了咱们dba手上。此刻要冷静,再回首缕一缕。


从剖析日志及各组反馈的结果综合看来,问题肯定来自redo io层面,既然主机及存储侧都反馈无异常,那么问题是否在最底层(存储链路)? 马上联系HDS工程师,令其去查看存储链路是否存在异常。


30min后接收到HDS工程师的反馈,兄弟们,根源找到了!这才合上笔记本仰天长叹!!!


我们来看下底层架构:


20160328071520509.jpg


该省账务库物理容灾采用Veritas镜像技术实现存储底层同步。当应用发起变更数据请求时,必须等待生产、容灾两份存储全部完成写入后,方可反馈提交信息。事发当天该库对应的2条SAN级联链路中有一条出现了异常,到容灾存储的数据变更速率均减半,这样就导致了批量操作(日账)延迟!


作者介绍:张玉朋


  • 新炬网络高级技术专家。

  • 5年以上电信行业运维经验。

  • 擅长oracle架构规划,故障诊断、性能优化、shell编程等,对大型IT系统的oracle数据库运维有丰富的经验。

  • 曾主导某省移动核心CRM、BOSS升级项目。


本文来自云栖社区合作伙伴"DBAplus",原文发布时间:2016-03-07

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
目录
相关文章
|
3月前
|
编解码 移动开发 人工智能
分享4个策略经营、5动作冒险、8角色扮演、8体育竞速、18飞行射击和30棋牌安卓游戏源码
分享4个策略经营、5动作冒险、8角色扮演、8体育竞速、18飞行射击和30棋牌安卓游戏源码
30 0
|
传感器 算法 iOS开发
Cuptime 2 智能水杯:从数据到游戏,为了让你健康喝水也是操碎了心|评测
麦开一直以来与国内很多智能硬件公司比较不一样,那就是研发的产品几乎都是原创的,而且获得的成绩也不错,这点都比较难得。Cuptime就是其代表作之一,智能水杯可是麦开首创的产品,当时连国外也没有这种产品,一年销售了超过10万台,后面很多智能水杯产品或多或少的也在参考Cuptime。
355 0
Cuptime 2 智能水杯:从数据到游戏,为了让你健康喝水也是操碎了心|评测
|
人工智能 供应链 双11
这届打工人不一样!剁手消费之外,还在天猫双11抢网课投资自己
天猫双11预售首日,买网课的人比去年增加了649%
这届打工人不一样!剁手消费之外,还在天猫双11抢网课投资自己
果冻有家,房联网概念的平台化应用;水滴筹回应称:线下团队暂停服务。
果冻有家,房联网概念的平台化应用;水滴筹回应称:线下团队暂停服务。
245 0
|
新零售
“猫爪杯”走红:饥饿营销的宣传方式,有利有弊
最近,星巴克咖啡在中国门店出售了2019年的樱花主题系列的杯子,当中,最受欢送的当属一款名为“猫爪杯”的杯子。不其中的外形设计不仅有樱花,还有肉肉的猫抓,加上粉红色的配色,俘虏了一大批女生的心。 虽然这个看起来并不怎样实用的猫爪杯,却掀起了一众狂热。