意犹未尽的第2篇再次推出,继续讲解oracledb_exporter监控Oracle,一个入侵性极低的监控方案。

简介: 意犹未尽的第2篇再次推出,继续讲解oracledb_exporter监控Oracle,一个入侵性极低的监控方案。

写在开篇

基于上次的 oracledb_exporter监控Oracle,一个入侵性极低的监控方案 文章中,本篇继续讲解如下内容:

  1. 根据实际业务需求编写自定义监控指标,让其真正可以在生产上玩起来
  2. oracledb_exporter的备机拉取master配置

再次巩固下方案

本篇讲的是下图中的红色框部分

红色框部分,是oracledb_exporter的主备方案,结合上次的设计,这个图是完整的监控架构了。

oracledb_exporter的主备方案设计思路是跟Prometheus主备的设计思路大同小异的,架构不管如何设计,都是为了在生产环境上不要存在单点。

再次巩固笔者的环境规划

用途 主备角色 物理IP VIP接管 VIP地址
oracledb_exporter Master 192.168.11.20 接管 192.168.11.200
oracledb_exporter Backup 192.168.11.21 待接管 192.168.11.200

自定义指标的规范

  1. 什么是自定义指标

如果oracledb_exporter默认的监控指标没有你想要的,怎么办?非常简单!oracledb_exporter支持自定义指标,按照它的规范格式进行编写相应的指标,将自定义指标编写在文件格式以.toml结尾的配置文件里(指标文件),那oracledb_exporter如何使用这个自定义的指标文件?有两种方式,如下:

  • 使用--custom.metrics参数,后面指定指标文件
  • 设置全局或局部环境变量,如下:
export CUSTOM_METRICS=my-custom-metrics.toml
  1. 自定义指标文件格式和规范

编写自定义指标文件,必须按照它的规范进行编写,我们拿官方的小栗子来解释解释,解剖解剖,官方小栗子如下:

[[metric]]
context = "test"
request = "SELECT 1 as value_1, 2 as value_2 FROM DUAL"
metricsdesc = { value_1 = "Simple example returning always 1.", value_2 = "Same but returning always 2." }

根据上面的小栗子,可以知道,必须包含的元素有如下:

  • 一个或多个指标,就需要一个或多个[[metric]]部分,也就是一个指标,就对应一个[[metric]]部分
  • 对于每个[[metric]]部分,最起码要有下面的字段:
  1. context:指标名称(有意义的)
  2. request:编写自定义sql
  3. metricsdesc:对指标的描述

自定义指标实战

下面我们通过一个更贴合实际的案例来实战一下,假设要获取IOPS指标,这个指标是需要计算的。特别要注意,在编写自定义指标之前,一定要先把sql写好,且要调试好。

  1. 笔者写好的获取iops的sql如下:
select sum(decode(name,'physical read IO requests',value,'physical write IO requests',value,0)) as iops, sum(decode(name,'physical read bytes',value,'physical write bytes',value,0)) / 1024 / 1024 as mbps from v$sysstat where name in ('physical read IO requests','physical write IO requests','physical read bytes','physical read total bytes', 'physical write bytes','physical write total bytes','physical read total IO requests','physical write total IO requests');
  1. 通过plsql工具连接到oracle进行执行和调试,看看结果是否达到预期,效果如下:

完美!达到预期了,么么哒。

  1. 创建自定义指标文件”./custom_metrics/performance_metric.toml“编写如下:
[[metric]]
context = "reads_and_writes_per_second"
labels = ["iops"]
request = "select sum(decode(name,'physical read IO requests',value,'physical write IO requests',value,0)) as iops, sum(decode(name,'physical read bytes',value,'physical write bytes',value,0)) / 1024 / 1024 as mbps from v$sysstat where name in ('physical read IO requests','physical write IO requests','physical read bytes','physical read total bytes', 'physical write bytes','physical write total bytes','physical read total IO requests','physical write total IO requests')"
metricsdesc = { iops = "每秒进行读写操作的次数" }
  1. 启动oracledb_exporter

启动脚本如下:

#!/bin/sh
# 监控测试环境oracle
source .env_var/.9161_192.168.11.8_PDB1_ZABBIX.DB 
nohup oracledb_exporter --log.level warn --web.listen-address :9161 --custom.metrics ./custom_metrics/performance_metric.toml >> ./logs/9161_192.168.11.8_PDB1_ZABBIX.DB.log &

开始启动:

[root@exporter-server-master oracle]# sh start.sh

效果如下图:

完美!一切都达到了预期!

关于指标的其它字段

在实际的应用中,可能还会使用到指标部分中的labels和ignorezeroresult字段,下面我们简单的了解下它们的使用场景。

  • labels:顾名思义,这个是标签的意思,除了给指标取一个有意义的名字之外,其实还可以定义一些标签(当然如果有需要的话)下面是它的定义格式:
[[metric]]
...
labels = ["iops", "io", "io_performance"]
...

在刚才的案例中,就有使用到labels,同一个指标是可以定义多个标签的,逗号分隔即可。

  • ignorezeroresult:这个字段又是什么鬼?这个字段用途是忽略为0的结果,假设你自定义的指标中,如果在某个时间获取到的值是0,但想要忽略它,那么就可以使用这个字段了。它的定义格式如下:
ignorezeroresult = true

当然,如果不显示指定的话,那就是默认不忽略为0的结果。

oracledb_exporter的主备配置

oracledb_exporter的slave服务器需要拉取master服务器的配置,当master的配置发生改变,就通知slave,然后slave再访问masetr进行拉取。其实这个原理和笔者在之前设计prometheus主备方案时的配置文件拉取的原理是一样的,而且脚本也可以改改就能复用了,下面我来配置一下。

master配置

按照我们之前的规划,所有数据库监控的根目录是在/data/database_monitoring/路径下,因此我们将下面的脚本放在此目录,并拉起。当slave来拉配置的时候,它访问的是8000端口(拉起后默认的端口),这样就可以将该目录下所有业务的指标文件进行同步了。

  1. 部署配置文件同步Api

创建startOracledbExporterConfSyncApi.sh

#!/bin/sh
nohup /usr/bin/python -m SimpleHTTPServer > /dev/null &

拉起脚本和检查

[root@exporter-server-master database_monitoring]# sh startOracledbExporterConfSyncApi.sh
[root@exporter-server-master database_monitoring]# netstat -tulnp | grep 8000
tcp        0      0 0.0.0.0:8000            0.0.0.0:*               LISTEN      1462/python
  1. 部署配置文件变化时的检测脚本

注意:此脚本也要运行在/data/database_monitoring/路径下

创建startTarPackConf.sh

#!/bin/sh
time_log=`date "+%Y-%m-%d %H:%M:%S"`
echo "${time_log} 配置检查器启动"
task_wait_sec=4
find ./business -type f -print0 | xargs -0 md5sum > ./cfmd5/cfmd5.list
while true
do
  time_bak=`date "+%Y%m%d%H%M%S"`
  time_log=`date "+%Y-%m-%d %H:%M:%S"`
  md5sum -c ./cfmd5/cfmd5.list > ./cfmd5/check_cfmd5.log
  md5ret=`cat ./cfmd5/check_cfmd5.log | grep "FAILED" | wc -l`
  while true
  do
    if [ ${md5ret} -gt 0 ]
    then
      echo "${time_log} 配置文件发生变化,触发打包动作。"
      mv ./business.tar.gz ./backup/business.tar.gz_bak_${time_bak}
      tar -zcf business.tar.gz business/
      echo 1 > ./notice_slave.action
      break
    else
      echo 0 > ./notice_slave.action
      break
    fi
  done
  find ./business -type f -print0 | xargs -0 md5sum > ./cfmd5/cfmd5.list
  sleep ${task_wait_sec}
done

继续在该目录下创建检测脚本所需的目录

[root@exporter-server-master database_monitoring]# mkdir cfmd5
[root@exporter-server-master database_monitoring]# mkdir backup
[root@exporter-server-master database_monitoring]# mkdir logs

拉起脚本和检查

[root@exporter-server-master database_monitoring]# nohup sh ./startTarPackConf.sh >> ./logs/tar_pack.log &
[root@exporter-server-master database_monitoring]# ps -aux | grep Tar
root       1755  0.0  0.6 113292  1464 pts/0    S    19:40   0:00 sh ./startTarPackConf.sh

Backup配置

  1. 在数据目录下创建规范的目录
[root@exporter-server-backup ~]# mkdir -p /data/database_monitoring
[root@exporter-server-backup ~]# cd /data/database_monitoring/
[root@exporter-server-backup database_monitoring]#
  1. 部署拉取配置脚本

在该路径下创建定时拉取配置脚本startUpdateSyncConf.sh

#!/bin/sh
time_log=`date "+%Y-%m-%d %H:%M:%S"`
echo "${time_log} 配置更新器启动"
pull_wait_sec=2
while true
do
  wget http://192.168.11.20:8000/notice_slave.action -O notice_slave.action > /dev/null 2>&1
  status=`cat ./notice_slave.action`
  if [ ${status} -eq 1 ]
  then
    time_bak=`date "+%Y%m%d%H%M%S"`
    time_log=`date "+%Y-%m-%d %H:%M:%S"`
    echo "${time_log} 从master下载配置压缩包文件"
    wget http://192.168.11.20:8000/business.tar.gz -O business.tar.gz
    echo "${time_log} 备份原有的配置目录"
    mv ./business ./backup/business_bak_${time_bak}
    echo "${time_log} 解压下载后的配置压缩包"
    tar -zxf business.tar.gz
  fi
  sleep ${pull_wait_sec}
done

创建脚本所需的目录

[root@exporter-server-backup database_monitoring]# mkdir backup
[root@exporter-server-backup database_monitoring]# mkdir logs

拉起脚本和检查

nohup sh startUpdateSyncConf.sh > ./logs/update_sync.log &

配置同步验证

  1. 在master上修改配置文件

笔者打开之前配置好的配置文件,修改了context内容,在后面增加了test,变为:”reads_and_writes_per_second_test“

[[metric]]
context = "reads_and_writes_per_second_test"
labels = ["iops"]
request = "select sum(decode(name,'physical read IO requests',value,'physical write IO requests',value,0)) as iops, sum(decode(name,'physical read bytes',value,'physical write bytes',value,0)) / 1024 / 1024 as mbps from v$sysstat where name in ('physical read IO requests','physical write IO requests','physical read bytes','physical read total bytes', 'physical write bytes','physical write total bytes','physical read total IO requests','physical write total IO requests')"
metricsdesc = { iops = "每秒进行读写操作的次数" }
  1. 在backup上面查看是否有触发拉取

修改了配置文件后,笔者马上登录backup查看了一下,成功和master保持同步。

  1. 把backup的oracledb_exporter也拉起来后看看效果
  • master

  • backup

非常完美!都是OK的呢,都能正常采集监控指标。但需要注意:在正式生产使用时,仅需拉起master的oracledb_exporter,backup的oracledb_exporter不用拉起,当master挂了,VIP会漂移到backup进行接管。这时候可以去backup上手动拉起oracledb_exporter,也可以再编写脚本实现自动拉起,笔者就不做演示了哈!

写在最后

到此为止,oracledb_exporter主备方案的规划和部署就全都讲完了,欢迎广大盆友可以按笔者的方案实践实践,并给出更好的方案,我们共同学习和进步。再次感谢大家!望多多关注我们,转发、收藏、点赞!

相关文章
|
Oracle 关系型数据库 数据库
Flink CDC中oracle dataguard模式下,有没有cdc备库的方案?
Flink CDC中oracle dataguard模式下,有没有cdc备库的方案?
186 1
|
SQL 存储 监控
使用AWR监控Oracle性能测试
这个 SQL 语句显示快照每小时采集一次,采集的数据保留 8天。要修改设置 – 例如,快照时间间隔为 30 分钟,保留时间为30天 ,可以发出以下命令。参数以分钟为单位。
127 1
|
Prometheus 监控 Oracle
oracledb_exporter监控Oracle,一个入侵性极低的监控方案。
oracledb_exporter监控Oracle,一个入侵性极低的监控方案。
791 0
QGS
|
监控
(linux-x86)Prometheus-2.30.0+Grafana-7.2.0监控Oracle11g
记(linux-x86)Prometheus-2.30.0+Grafana-7.2.0监控Oracle11g
QGS
494 0
(linux-x86)Prometheus-2.30.0+Grafana-7.2.0监控Oracle11g
|
Oracle 关系型数据库 数据库
关于PostgreSQL数据库兼容Oracle数据库闪回查询的实现方案
注:关于在PostgreSQL上面实现Oracle数据库的闪回功能(闪回查询 闪回表 闪回删除…)的这个想法已经有很长时间了,但是鉴于本人的能力 精力和身体条件 迟迟没有完成。期间也有很多的小伙伴跟我一起研究过这个功能,但是最终都因为各种各样的问题 没有做下去。Oracle数据库闪回功能跨越版本较大,功能也比较强大 在PostgreSQL数据库上实现,需要对数据库内核有很深入的理解 两大数据库不同的底层原理也终将影响各自的实现策略,PostgreSQL标记删除就地插入的特点和基于事务快照行可见性的特性是我们可以开发PostgreSQL闪回查询的大前提。本文主要介绍 实现闪回查询的 一种实现方案
329 0
|
监控 Oracle 关系型数据库
orabbix监控oracle数据库
orabbix监控oracle数据库数据库授权(亦可使用oracle的sys用户) #su - oralce登录 oracle 命令行 #sqlplus / as sysdba 2) 创建zabbix用户 create user zabbix identified by zabbix d...
1458 0
|
1月前
|
存储 Oracle 关系型数据库
Oracle数据库的应用场景有哪些?
【10月更文挑战第15天】Oracle数据库的应用场景有哪些?
158 64
|
21天前
|
SQL Oracle 关系型数据库
Oracle数据库优化方法
【10月更文挑战第25天】Oracle数据库优化方法
27 7
|
21天前
|
Oracle 关系型数据库 数据库
oracle数据库技巧
【10月更文挑战第25天】oracle数据库技巧
24 6