性能分析之从 IO 高定位到具体文件

简介: 【8月更文挑战第21天】性能分析之从 IO 高定位到具体文件

一、概述

IO 的性能分析一直是性能分析的重点之一,分析的思路是:
image.png

在代码的逻辑清晰的情况下,是完全可以知道哪些文件是频繁读写的。但是对性能分析人员来说,通常是面对一个不是自己编写的系统,有时还是多个团队合作产生的系统。这时就会出现很多的推诿和争执。如果可以迅速地把问题到一个段具体的代码,到一个具体的文件,那就可以提高沟通的效率。

通常情况在 linux 环境下,通过 vmstat 或者 iostat 命令可以发现磁盘 IO 的异常,可以看到系统级的磁盘读写量及 CPU 占用率,但无法明确定位到是什么进程在作祟,安装 iotop 后,可以定位到进程,但并不知道改进程在操作什么文件。

image.png

二、核心原理

本文是考虑从系统级的工具来完成这个操作,比较具有通用性。在这之前需要先理解一下文件的一个重要的属性:inode。

什么是 inode 呢?先来看一个示意图:

image.png

磁盘上最小的存储单元是扇区 sector,每8个扇区组成一个块 block(4096字节)。如下所示:

[root@7DGroup2 ~]# tune2fs -l /dev/vda1|grep  Block
Block count:              10485504
Block size:               4096
Blocks per group:         32768
[root@7DGroup2 ~]#

文件的存储就是由这些 块组成的,当块多了之后就成了如下这样(其实磁盘上的块比这个图中多得多,这里只是示意图):

image.png

其中红色的这部分是存储的文件,我们通常在文件系统中直接ls或者用其他命令操作文件的时候是根据路径来操作的,那些是上层的命令。当我们执行了一个命令之后,操作系统会来找到这些文件做相应的操作,怎么找到这些文件呢,那就需要 inode 了。Inode 用来存储这些文件的元信息,也就是索引节点,它包括的信息有:

  • 字节数
  • User ID
  • Group ID
  • 读、写、执行权限
  • 时间戳,共有三个:ctime 指 inode 上一次变动的时间,mtime 指文件内容上一次变动的时间,atime 指文件上一次打开的时间
  • 链接数,有多少文件名指向这个 inode
  • 文件数据 block 的位置

通过这些信息,我们才能实现对文件的操作。这个 inode 其实也是存储在磁盘上的,也需要占用一些空间,如上图中的绿色部分所示。

当我们在系统级看到 IO 过高的时候,比如下图所示:

image.png

从上图可以看到,这系统几乎所有的 CPU 都在等 IO。这时怎么办?就用我们前面提到的分析的思路,查看进程级和线程级的 IO,进而找到具体的文件。下面我们来具体实现。

这里我们用的是 systemtap,这个工具 7Dgroup 之前的文章中提到的,但没有展开说。后面如果有可能我们再多写些类似的工具原理和使用方法。

Systemtap 的逻辑图如下:

image.png

从逻辑图上看,它工作在内核层面,不是 shell 的层面。
SystemTap 为我们开启了一扇通往系统内核的大门,SystemTap 自带的 examples 中提供一些磁盘 IO 相关的监控例子。

以 iotop.stp 为例,源码如下:

#!/usr/bin/stap
global reads, writes, total_io

probe vfs.read.return {
   
   
    reads[execname()] +=  bytes_read
}

probe vfs.write.return {
   
   
    writes[execname()] +=  bytes_written
}


# print top 10 IO processes every 5 seconds
probe timer.s(5) {
   
   
    foreach (name in writes)
        total_io[name] +=  writes[name]
    foreach (name in reads)
        total_io[name] +=  reads[name]

    printf ("%16s\t%10s\t%10s\n",  "Process", "KB Read", "KB Written")

    foreach (name in total_io-  limit 10)
         printf("%16s\t%10d\t%10d\n", name,
                reads[name]/1024, writes[name]/1024)

    delete reads
    delete writes
    delete total_io
    print("\n")

}

执行的结果是:每隔 5 秒打印读写总量排前 10 位的进程。

image.png

该脚本有两个问题:

  1. 按照进程名字统计,存在统计误差,进程名一致,但 PID 不一样的进程,都统计到一起;

  2. 我们依然不能知道进程操作了什么文件。

通过对 probe点 的分析(sudo stap -L'vfs.{write,read}'),我们可以知道,vfs.read,vfs.write 有局部变量 ino 可以利用,ino 是文件的inode,这样我们就可以明确的探测到读写量最多的进程及文件。

$ sudo stap -L 'vfs.{write,read}'
vfs.read  file:long pos:long buf:long bytes_to_read:long dev:long devname:string  ino:long name:string argstr:string $file:struct file* $buf:char*  $count:size_t $pos:loff_t*
vfs.write  file:long pos:long buf:long bytes_to_write:long dev:long devname:string  ino:long name:string argstr:string $file:struct file* $buf:char const*  $count:size_t $pos:loff_t*

扩展过的脚本如下:

#!/usr/bin/stap
global reads, writes, total_io

probe vfs.read.return {
   
   
     reads[execname(),pid(),ino] += bytes_read
}


probe vfs.write.return {
   
   
     writes[execname(),pid(),ino] += bytes_written
}


# print top 10 IO processes every 5 seconds
probe timer.s(5) {
   
   
    foreach  ([name,process,inode] in writes)
         total_io[name,process,inode] += writes[name,process,inode]
    foreach ([name,process,inode] in reads)
         total_io[name,process,inode] += reads[name,process,inode]
    printf  ("%16s\t%8s\t%8s\t%10s\t%10s\n", "Process",  "PID", "inode", "KB Read", "KB  Written")
    foreach  ([name,process,inode] in total_io- limit 10)
         printf("%16s\t%8d\t%8d\t%10d\t%10d\n", name,process,inode,
                reads[name,process,inode]/1024, writes[name,process,inode]/1024)

    delete reads
    delete writes
    delete total_io
    print("\n")
}

三、一个实验

我们来做个实验,执行 dd 命令来做一个高磁盘读写操作。
执行命令如下:

dd bs=64k count=4k if=/dev/zero of=test oflag=dsync

这条命令执行的效果是:dd 在执行时每次都会进行同步写入操作,每次从 /dev/zero 读取 64 k数据,然后写入当前目录下的 test 文件,一共重复 4 K次。在 linux 系统中, /dev/zero 是一个特殊的文件,当你读它的时候,它会提供无限的空字符(NULL, ASCII NUL, 0x00)。

iotop.stp 监控结果如下:

image.png

通过监控,我们知道了,PID 为 2978 的 dd 进程 读取 inode 为 1047 的文件,写入 inode 为 663624 的文件,这两个是读写最多的操作。
通常情况下,我们并不知道 inode 对应文件的位置,可以通过 find / -inum 1047 找到对应的文件。
通过 stat 命令,我们可以看到文件inode详细的描述。

$ stat /dev/zero
   文件:"/dev/zero"
   大小:0           块:0          IO 块:4096   字符特殊文件
设备:5h/5d     Inode:1047        硬链接:1     设备类型:1,5
权限:(0666/crw-rw-rw-)  Uid:(    0/     root)   Gid:(    0/     root)
环境:system_u:object_r:zero_device_t:s0
最近访问:2017-05-02  10:50:03.242425632 +0800
最近更改:2017-05-02  10:50:03.242425632 +0800
最近改动:2017-05-02  10:50:03.242425632 +0800
创建时间:-

这个分析思路在任何一个系统中都可以说是能用的,只是不同的系统用的工具不同。这次用的环境是 CentOS,那在其他的系统中,只能找到相对应的其他工具了。

四、总结

再次强调,了解原理、理清思路是性能分析的重点。工具的使用是为了验证思路的正确性。千万不要舍本逐末。

目录
相关文章
|
10天前
|
Linux C语言
C语言 文件IO (系统调用)
本文介绍了Linux系统调用中的文件I/O操作,包括文件描述符、`open`、`read`、`write`、`lseek`、`close`、`dup`、`dup2`等函数,以及如何获取文件属性信息(`stat`)、用户信息(`getpwuid`)和组信息(`getgrgid`)。此外还介绍了目录操作函数如`opendir`、`readdir`、`rewinddir`和`closedir`,并提供了相关示例代码。系统调用直接与内核交互,没有缓冲机制,效率相对较低,但实时性更高。
|
23天前
IO流拷贝文件的几种方式
IO流拷贝文件的几种方式
26 1
|
20天前
|
关系型数据库 MySQL Linux
性能分析之解决 jbd2 引起 IO 高问题
【8月更文挑战第19天】性能分析之解决 jbd2 引起 IO 高问题
42 0
|
2月前
|
Linux 数据处理 C语言
【Linux】基础IO----系统文件IO & 文件描述符fd & 重定向(下)
【Linux】基础IO----系统文件IO & 文件描述符fd & 重定向(下)
48 0
|
2月前
|
Linux C语言 C++
【Linux】基础IO----系统文件IO & 文件描述符fd & 重定向(上)
【Linux】基础IO----系统文件IO & 文件描述符fd & 重定向(上)
35 0
|
3月前
|
C++
Open3D File Io 文件IO
Open3D File Io 文件IO
|
3月前
|
存储 缓存 Unix
【嵌入式软件工程师面经】Linux文件IO
【嵌入式软件工程师面经】Linux文件IO
38 1
|
3月前
|
存储 安全 Unix
【.Net Core】深入理解IO之文件和目录
【.Net Core】深入理解IO之文件和目录
43 4
|
3月前
|
Java
io读两个文件,生成list 排重后写本地文件(Java)
io读两个文件,生成list 排重后写本地文件(Java)
25 2
|
3月前
|
Linux 网络安全 开发工具
【linux】基础IO |文件操作符
【linux】基础IO |文件操作符
30 0