两条报警信息的分析(第二篇)

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介: 还是继续分析报警信息的关联,下面两个看似没有直接联系的报警信息其实很有关联。 下面是主库的报警的信息,查看v$dataguard_status得到了最新的错误信息。
还是继续分析报警信息的关联,下面两个看似没有直接联系的报警信息其实很有关联。
下面是主库的报警的信息,查看v$dataguard_status得到了最新的错误信息。
#############################
[DB监控系统]_adb2_p@10.127.xx.19_报警
ZABBIX-监控系统: 
------------------------------------
报警内容: DG_issue
------------------------------------
报警级别: PROBLEM
------------------------------------
监控项目: dg_issue:2015-09-26 03:52:00.0Log Transport ServicesErrorError 12514 received logging on to the standby2015-09-26 03:52:00.0Log Transport ServicesErrorPING[ARC1]: Heartbeat failed to connect to standby '(DESCRIPTION=(ADDRESS_LIST=(ADDRESS=(PROTOCOL=TCP)(HOST=xxxxx.com)(PORT=1521)))(CONNECT_DATA=(SERVICE_NAME=sadb2_XPT)(INSTANCE_NAME=adb2)(SERVER=dedicated)))'. Error is 12514.2015-09-26 03:52:02.0Log Transport ServicesErrorError 12514 received logging on to the standby2015-09-26 03:52:02.0Fetch Archive LogErrorFAL[server, ARC1]: Error 12514 creating remote archivelog file '(DESCRIPTION=(ADDRESS_LIST=(ADDRESS=(PROTOCOL=TCP)(HOST=xxxx)(PORT=1521)))(CONNECT_DATA=(SERVICE_NAME=sadb2_XPT)(INSTANCE_NAME=adb2)(SERVER=dedicated)))' 
------------------------------------ 
报警时间:2015.09.26-03:53:09

下面是相邻时间段里备库的报警信息
[DB监控系统]_acb2_s1@10.127.xx.29_报警
ZABBIX-监控系统: 
------------------------------------
报警内容: Free disk space is less than 20% on volume /opt
------------------------------------
报警级别: PROBLEM
------------------------------------
监控项目: Free disk space on /opt (percentage):9.82 % 
------------------------------------ 
报警时间:2015.09.26-03:28:57

这两条信息看似没有必然的关联,我们来分析一下原委,看看怎么解决这个问题。
既然提示备库有问题,我们来看看备库的日志信息。
Redo Shipping Client Connected as PUBLIC
-- Connected User is Valid
RFS[1750]: Assigned to RFS process 3676
RFS[1750]: Identified database type as 'physical standby'
RFS[1750]: Archived Log: '/U01/app/oracle/admin/adb2/arch/1_7751_782793360.dbf'
Sat Sep 26 03:14:46 CST 2015
Stopping background process MMNL
Sat Sep 26 03:14:47 CST 2015
Stopping background process MMON
Sat Sep 26 03:14:48 CST 2015
SMON: disabling cache recovery
Sat Sep 26 03:14:50 CST 2015
Starting background process MMON
Sat Sep 26 03:14:50 CST 2015
ALTER DATABASE RECOVER MANAGED STANDBY DATABASE  THROUGH ALL SWITCHOVER DISCONNECT  NODELAY
Starting background process MMNL
MMON started with pid=11, OS id=20676
Sat Sep 26 03:14:50 CST 2015
Attempt to start background Managed Standby Recovery process (adb2)
MMNL started with pid=20, OS id=20678
MRP0 started with pid=21, OS id=20680
Sat Sep 26 03:14:50 CST 2015
MRP0: Background Managed Standby Recovery process started (adb2)
Managed Standby Recovery not using Real Time Apply
 parallel recovery started with 15 processes
Sat Sep 26 03:14:56 CST 2015
Waiting for all non-current ORLs to be archived...
Media Recovery Log /U01/app/oracle/admin/adb2/arch/1_7751_782793360.dbf
Sat Sep 26 03:14:56 CST 2015
Completed: ALTER DATABASE RECOVER MANAGED STANDBY DATABASE  THROUGH ALL SWITCHOVER DISCONNECT  NODELAY
Sat Sep 26 03:14:59 CST 2015
Media Recovery Waiting for thread 1 sequence 7752
Sat Sep 26 03:21:38 CST 2015
Redo Shipping Client Connected as PUBLIC
-- Connected User is Valid
RFS[1751]: Assigned to RFS process 21848
RFS[1751]: Identified database type as 'physical standby'
RFS[1751]: Archived Log: '/U01/app/oracle/admin/adb2/arch/1_7752_782793360.dbf'
Sat Sep 26 03:21:39 CST 2015
Media Recovery Log /U01/app/oracle/admin/adb2/arch/1_7752_782793360.dbf
Media Recovery Waiting for thread 1 sequence 7753
单纯看日志没有发现相关的ora错误。
查看备库的文件系统信息。可以看到分区/opt的空间目前是正常的,说明在之后空间得到了释放。
$ df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/sda1             5.9G  959M  4.6G  17% /
/dev/sda3             7.5G  6.2G  943M  88% /var
/dev/sda5              12G  2.7G  8.1G  25% /usr
tmpfs                  32G  8.0K   32G   1% /dev/shm
/dev/shm               32G  8.0K   32G   1% /tmp
/dev/sda7             495G  352G  118G  75% /opt
好了,问题背景交代完了,我们这个时候就来分析一下,这个问题在最近每天都会存在,时间段固定,可以断定这是一个scheduler或者crontab之类触发的。
而数据备份在备库中,crontab更加现实一些,因为这个库是10g的库,还在mount阶段。
所以查看了crontab,发现确实在特定的时间段存在一个备份任务。这是一个使用datapump的逻辑备份。
因为这个库也不算大,但是数据还是比较重要,在有些数据误删除的情况下,还可以根据需要做一些对应的数据恢复工作,所以采用了逻辑备份的方式做了一次全备。
查看base目录下的空间使用情况,发现备份集的数据比数据库数据文件的还要大一些。这个似乎也不太合理。
$ du -sh ./*
182G    ./backup_stage
169G    ./oracle
12M     ./oraInventory
oracle目录下的文件如下:
oracle]$ ll
total 12
drwxrwxr-x 3 oracle oinstall 4096 Feb 19  2014 admin
drwxr-xr-x 3 oracle oinstall 4096 May 14  2012 oradata
drwxrwxr-x 5 oracle oinstall 4096 Jul 30 11:08 product
查看之后发现backup_stage下存放的是近两天的备份内容,也就是近两天的数据备份都可以根据需要进行恢复。
那么crontab是怎么配置的呢?
30 1 * * * . $HOME/.adb2profile;$HOME/dbadmin/scripts/expdpfull.sh
这个重要的脚本的内容如下:
less $HOME/dbadmin/scripts/expdpfull.sh
#!/bin/bash
. ~oracle/.bash_profile
home=~oracle
export home
lexphome=/U01/app/backup_stage/exp
export lexphome
expfile=${ORACLE_SID}_`date +%Y%m%d`
export expfile
dgmgrl / "edit database sadb2 set state='READ-ONLY'"
  if [ $? -ne 0 ]; then
  echo "set read-only failed!"
  exit 1
  fi
sleep 60
exp \'/ as sysdba\'  parfile=$home/dbadmin/scripts/dbexp_full_adb2.par log=$lexphome/${expfile}.log
dgmgrl / "edit database sadb2 set state='ONLINE'"
if [ $? -ne 0 ]; then
echo "set online failed!"
exit 1
fi
find $lexphome/ -name '*.dmp' -mtime +1 -exec rm -f {} \;

所做的工作大体如下,取消备库的日志应用,然后把数据库置为read-only状态,然后做逻辑备份,备份完成之后把备库开启日志应用,然后删除前一天的备份。
流程和思路应该看不出什么问题吧。
但是这个问题仔细琢磨了下,觉得还是哪里不对劲,但又说不出。最后仔细揣摩了一番,发现这个流程其实还是可以做改进的。
打个比方,磁盘剩余空间又160G,每天的备份大概是50G,这样每天备份完成删除之后就会剩余60G的空间,
如果按照现有的流程来做,就是下面的形式
开启逻辑备份 50G, 已有近两天的备份100G,那么剩余空间就是160G-50G*2-50G=10G
如果是这种情况,就会出现空间的紧缩和抖动。使用zabbix查看近期的空间紧缩情况确实就是这样的情况

我们可以做这样一种优化,即开始备份前,删除前两天的一个备份,然后开始当天的备份,这样,备份就始终是两个,空间使用率反而还会短期扩张。
明白了思路,解决起来就轻松很多,可以直接在备份前开始清理前两天的一个备份。
脚本内容如下:
less $HOME/dbadmin/scripts/expdpfull.sh
#!/bin/bash
. ~oracle/.bash_profile
home=~oracle
export home
lexphome=/U01/app/backup_stage/exp
export lexphome
expfile=${ORACLE_SID}_`date +%Y%m%d`
export expfile
find $lexphome/ -name '*.dmp' -mtime +1 -exec rm -f {} \;
dgmgrl / "edit database sadb2 set state='READ-ONLY'"
  if [ $? -ne 0 ]; then
  echo "set read-only failed!"
  exit 1
  fi
sleep 60
exp \'/ as sysdba\'  parfile=$home/dbadmin/scripts/dbexp_full_adb2.par log=$lexphome/${expfile}.log
dgmgrl / "edit database sadb2 set state='ONLINE'"
if [ $? -ne 0 ]; then
echo "set online failed!"
exit 1
fi
find $lexphome/ -name '*.dmp' -mtime +1 -exec rm -f {} \;
这样空间使用就会始终保持在基线之上,达到一个相对合理的状态。
明白了这一点,再来看看我们所说的报警,主库的v$dataguard_status中有这样一段内容,Error 12514 creating remote archivelog file '(DESCRIPTION=(ADDRESS_LIST=(ADDRESS=(PROTOCOL=TCP)(HOST=xxxx)(PORT=1521)))(CONNECT_DATA=(SERVICE_NAME=sadb2_XPT)(INSTANCE_NAME=adb2)(SERVER=dedicated)))' 
大体意思就是从主库发送归档到备库失败,无法创建,无法创建的原因应该就是空间问题,但是备库的空间马上又释放了,所以从日志中还没有体现出来。
所以在空间有限的情况下我们进行流程的优化,达到的效果还是一致的。
相关实践学习
日志服务之数据清洗与入湖
本教程介绍如何使用日志服务接入NGINX模拟数据,通过数据加工对数据进行清洗并归档至OSS中进行存储。
目录
相关文章
|
2月前
|
Linux 网络虚拟化 Windows
网工记背命令(6)----链路聚合配置
网工记背命令(6)----链路聚合配置
26 0
|
9月前
|
数据采集 安全 网络安全
告警繁杂迷人眼,多源分析见月明
随着数字化浪潮的蓬勃兴起,网络安全问题日趋凸显,面对指数级增长的威胁和告警,传统的安全防御往往力不从心。网内业务逻辑不规范、安全设备技术不成熟都会导致安全设备触发告警。如何在海量众多安全告警中识别出真正的网络安全攻击事件成为安全运营的痛点问题。传统的分析手段,没有从威胁来源和攻击者视角来分析问题,从黑客攻击杀伤链来看,检测点和分析手段严重不足。因此需要从多源安全信息数据融合分析,实现网络攻击精准研判和处置。
83 1
实际案例分析 - 根据应用程序日志的记录,反查出哪一行 ABAP 代码产生的这条日志试读版
实际案例分析 - 根据应用程序日志的记录,反查出哪一行 ABAP 代码产生的这条日志试读版
|
存储 运维 监控
关于 SysOM 2.0 网络/存储相关诊断功能介绍及案例展示 | 第 72-73 期
周二(4点),讲解网络诊断中心功能的基本使用、诊断结果分析及实现原理。
关于 SysOM 2.0 网络/存储相关诊断功能介绍及案例展示 | 第 72-73 期
|
Shell 开发工具
如何快速定位到报错日志中的关键信息,一招学会,赶快GET吧
如何快速定位到报错日志中的关键信息,一招学会,赶快GET吧
如何快速定位到报错日志中的关键信息,一招学会,赶快GET吧
|
JavaScript 前端开发 开发者
网站流量日志埋点收集—原理实现分析|学习笔记
快速学习网站流量日志埋点收集—原理实现分析
150 0
网站流量日志埋点收集—原理实现分析|学习笔记
|
数据采集 分布式计算 监控
网站流量日志分析—数据入库—含义和 ETL 本质解释|学习笔记
快速学习网站流量日志分析—数据入库—含义和 ETL 本质解释
390 0
网站流量日志分析—数据入库—含义和 ETL 本质解释|学习笔记
|
2月前
|
运维 监控 安全
SLS相同监控规则太多?试试告警监控模板
本文主要介绍了SLS自定义告警监控模板的使用场景以及最佳实践。
65 0
SLS相同监控规则太多?试试告警监控模板
|
存储 运维 监控
一眼定位问题,函数计算发布日志关键词秒检索功能
随着业务量的攀升,用户在日志方面的诉求也是越来越多,函数计算控制台中的请求列表与关键字查询的组合可以轻松覆盖 100% 来自开发者的日志需求,让您更快速定位问题,直接进行业务日志的检索。
一眼定位问题,函数计算发布日志关键词秒检索功能