开发者社区> 像教授> 正文
阿里云
为了无法计算的价值
打开APP
阿里云APP内打开

zabbix监控磁盘IO

简介:
+关注继续查看

监控磁盘IO的基本原理:通过分析/proc/diskstats文件,来对IO的性能进行监控。

++++++++++++++++++++++++对/proc/diskstats的解释++++++++++++++++++++++++++++++

# cat /proc/diskstats |grep sda |head -1

   8    0     sda 2280 1445 76478 11956 249 188 3490 932 0 9913 12805

解释说明:

第一至第三个域,分别是主设备号,次设备号,设备名称

第4个域:读完成次数 ----- 读磁盘的次数,成功完成读的总次数。 

(number of issued reads. This is the total number of reads completed successfully.)

第5个域:合并读完成次数, 第9个域:合并写完成次数。为了效率可能会合并相邻的读和写。从而两次4K的读在它最终被处理到磁盘上之前可能会变成一次8K的读,才被计数(和排队),因此只有一次I/O操作。这个域使你知道这样的操作有多频繁。

(number of reads merged)

第6个域:读扇区的次数,成功读过的扇区总次数。 

(number of sectors read. This is the total number of sectors read successfully.)

第7个域:读花费的毫秒数,这是所有读操作所花费的毫秒数(用__make_request()到end_that_request_last()测量)。

(number of milliseconds spent reading. This is the total number of milliseconds spent by all reads (as measured from __make_request() to end_that_request_last()).)

第8个域:写完成次数 ----写完成的次数,成功写完成的总次数。

(number of writes completed. This is the total number of writes completed successfully.)

第9个域:合并写完成次数 -----合并写次数。

(number of writes merged Reads and writes which are adjacent to each other may be merged for efficiency. Thus two 4K reads may become one 8K read before it is ultimately handed to the disk, and so it will be counted (and queued) as only one I/O. This field lets you know how often this was done.)

第10个域:写扇区次数 ---- 写扇区的次数,成功写扇区总次数。

(number of sectors written. This is the total number of sectors written successfully.)

第11个域:写操作花费的毫秒数  ---  写花费的毫秒数,这是所有写操作所花费的毫秒数(用__make_request()到end_that_request_last()测量)。

(number of milliseconds spent writing This is the total number of milliseconds spent by all writes (as measured from __make_request() to end_that_request_last()).)

第12个域:正在处理的输入/输出请求数 -- -I/O的当前进度,只有这个域应该是0。当请求被交给适当的request_queue_t时增加和请求完成时减小。

(number of I/Os currently in progress. The only field that should go to zero. Incremented as requests are given to appropriate request_queue_t and decremented as they finish.)

第13个域:输入/输出操作花费的毫秒数  ----花在I/O操作上的毫秒数,这个域会增长只要field 9不为0。

(number of milliseconds spent doing I/Os. This field is increased so long as field 9 is nonzero.)

第14个域:输入/输出操作花费的加权毫秒数 -----  加权, 花在I/O操作上的毫秒数,在每次I/O开始,I/O结束,I/O合并时这个域都会增加。这可以给I/O完成时间和存储那些可以累积的提供一个便利的测量标准。

(number of milliseconds spent doing I/Os. This field is incremented at each I/O start, I/O completion, I/O merge, or read of these stats by the number of I/Os in progress (field 9) times the number of milliseconds spent doing I/O since the last update of this field. This can provide an easy measure of both I/O completion time and the backlog that may be accumulating.)


环境说明:CentOS6.6 32位系统、zabbix2.2.9

前提已经安装好zabbix服务端和客户端

客户端上操作(IP为:192.168.20.100):

修改客户端配置文件

# vi /usr/local/zabbix-2.2.9/etc/zabbix_agentd.conf

增加如下内容:

1
2
3
4
5
6
7
8
9
UnsafeUserParameters=1
UserParameter=custom.vfs.dev.read.ops[*],cat /proc/diskstats grep $1 | head -1 | awk '{print $$4}'                    //磁盘读的次数
UserParameter=custom.vfs.dev.read.ms[*],cat /proc/diskstats grep $1 | head -1 | awk '{print $$7}'                     //磁盘读的毫秒数
UserParameter=custom.vfs.dev.write.ops[*],cat /proc/diskstats grep $1 | head -1 | awk '{print $$8}'                   //磁盘写的次数
UserParameter=custom.vfs.dev.write.ms[*],cat /proc/diskstats grep $1 | head -1 | awk '{print $$11}'                  //磁盘写的毫秒数
UserParameter=custom.vfs.dev.io.active[*],cat /proc/diskstats grep $1 | head -1 | awk '{print $$12}'            
UserParameter=custom.vfs.dev.io.ms[*],cat /proc/diskstats grep $1 | head -1 | awk '{print $$13}'                       //花费在IO操作上的毫秒数
UserParameter=custom.vfs.dev.read.sectors[*],cat /proc/diskstats grep $1 | head -1 | awk '{print $$6}'             //读扇区的次数(一个扇区的等于512B)
UserParameter=custom.vfs.dev.write.sectors[*],cat /proc/diskstats grep $1 | head -1 | awk '{print $$10}'          //写扇区的次数(一个扇区的等于512B)

在服务器端测试,是否能取到数据:

1
2
3
4
5
6
# /usr/local/zabbix-2.2.9/bin/zabbix_get -s 192.168.20.100 -p 10050 -k 'custom.vfs.dev.read.ops[sda]'
2308
# /usr/local/zabbix-2.2.9/bin/zabbix_get -s 192.168.20.100 -p 10050 -k 'custom.vfs.dev.write.ms[sda]'
1509
# /usr/local/zabbix-2.2.9/bin/zabbix_get -s 192.168.20.100 -p 10050 -k 'custom.vfs.dev.write.ops[sda]'
386


zabbix web浏览器操作:

1、添加指标:思路:首先添加模板 ,然后在模板上添加item。

configuration——templates——右上角点create templates ,填写模板名称,并加入到一个组;

spacer.gifwKiom1YCboSQQ2rsAANa7hbD7-Q986.jpg

2、进入新创建的模板——items,右上角create items

spacer.gifwKioL1YCbvORpAgDAALKxQHOKxk071.jpg


指标细节:

第一个指标Name:      Disk:$1:Read:Bytes/sec

                  Key:          custom.vfs.dev.read.sectors[sda]

                  Units:        B/sec

                  Store value: speed per second    //差量每秒速率,会进行差值计算

                  Use custom multiplier     512      //会对值乘以512,因为这里是一个扇区,转换为字节为512B

spacer.gifwKiom1YCby2DqFESAAKVnLFeOAw492.jpg

同理,其他指标方式,添加如下: 

第二个指标:Name:      Disk:$1:Write:Bytes/sec

                  Key:          custom.vfs.dev.write.sectors[sda]

                  Units:        B/sec

                  Store value: speed per second

                  Use custom multiplier     512

第三个指标:Name:      Disk:$1:Read:ops per second

                  Key:          custom.vfs.dev.read.ops[sda]

                  Units:        ops/second

                  Store value: speed per second

第四个指标:Name:      Disk:$1:Write:ops per second

                  Key:          custom.vfs.dev.write.ops[sda]

                  Units:        ops/second

                  Store value: speed per second

第五个指标:Name:     Disk:$1:Read:ms

                  Key:         custom.vfs.dev.read.ms[sda]

                  Units:      ms

                  Store value: speed per second

第六个指标:Name:     Disk:$1:Write:ms

                  Key:         custom.vfs.dev.write.ms[sda]

                  Units:      ms

                  Store value: speed per second


3、进入新创建的模板——graphs,右上角点create graphs,填写name,添加item项目,选择图形类型

spacer.gifwKioL1YCb32BBVVrAAJLaZLC76g322.jpg

4、拷贝创建好的items、graphs复制到需要监控的主机里

5、Monitoring——graps,选择Group,host,graph项目,监控出图;

wKiom1YCb7iD5KBJAAPHnwFW2gY058.jpg


zabbix监控磁盘IO到此为止,针对有多块硬盘的机器可以编写脚本,自动提取硬盘名称进行监控;






本文转自 模范生 51CTO博客,原文链接:http://blog.51cto.com/mofansheng/1697548,如需转载请自行联系原作者

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

相关文章
Java - IO输入输出流
Java - IO输入输出流
18 0
IO实战篇:数据排序处理深入 | 带你学《Java语言高级特性》之七十六
在上一节中我们实现了简单的输入一些数据并完成数据排序处理的功能,本节将进一步开发,使其实现将数据保存进文件并进行显示的功能。
718 0
IO实战篇:奇偶数统计 | 带你学《Java语言高级特性》之七十七
在前几节中我们实战了很多案例,本节将带着读者开发一个较为简单的实际案例,实现对输入的数字的奇偶数字的出现次数的统计功能。
942 0
Java基础17:Java IO流总结
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/a724888/article/details/80201802 这位大侠,这是我的公众号:程序员江湖。
1269 0
JAVA IO流 字节流 字符流 缓冲流的注意点和效率
总结: stringBuilder的tostring返回的是new出来的字符串 如果没有那么返回空字符串而不是null 字符流:缓冲流内部都维护了一个数组 不是缓冲流的只有字符流的writer维护了一个数组...
1705 0
JAVA之旅(三十)——打印流PrintWriter,合并流,切割文件并且合并,对象的序列化Serializable,管道流,RandomAccessFile,IO其他类,字符编码
JAVA之旅(三十)——打印流PrintWriter,合并流,切割文件并且合并,对象的序列化Serializable,管道流,RandomAccessFile,IO其他类,字符编码 一.打印流PrintWriter 打印流有PrintWriter和PrintStream,他的特点可以直接操作输.
957 0
java io之管道流
  一、java.io中存在一中流叫管道流,类似管道的功能。PipedOutputStream和PipedInputStream分别是管道输出流和管道输入流。这个两个流必须同时使用。   二、作用:进行两个线程间的通信。
970 0
Java中IO流,输入输出流概述与总结
总结的很粗糙,以后时间富裕了好好修改一下。 1:Java语言定义了许多类专门负责各种方式的输入或者输出,这些类都被放在java.io包中。其中, 所有输入流类都是抽象类InputStream(字节输入流),或者抽象类Reader(字符输入流)的子类; 而所有输出流都是抽象类OutputStream(字节输出流)或者Writer(字符输出流)的子类。 【首先需要明白的是:流是干什么的??
1314 0
Java IO--管道流PipedOutputStream/PipedInputStream
<h1>管道流</h1> <div> <img src="http://img.blog.csdn.net/20131102090153781" alt=""><br> </div> <div> <pre name="code" class="java">import java.io.* ; class Send implements Runnable{ // 线程类 priva
1199 0
+关注
1338
文章
0
问答
文章排行榜
最热
最新
相关电子书
更多
低代码开发师(初级)实战教程
立即下载
阿里巴巴DevOps 最佳实践手册
立即下载
冬季实战营第三期:MySQL数据库进阶实战
立即下载