Linux - 磁盘I/O性能评估

简介: Linux - 磁盘I/O性能评估

概述


RAID


可以根据应用的不同,选择不同的RAID方式

  • 如果一个应用经常有大量的读操作,可以选择以RAID5方式构建磁盘阵列存储数据;
  • 如果应用有大量频繁的写操作,可以选择RAID0存取方式;
  • 如果应用对数据安全要求很高,同时对读写也有要求,可以考虑RAID01存取方式;

Linux-Raid0、Raid1、Raid5、Raid10初探

  • 尽可能用内存的读写代替直接磁盘I/O,使频繁访问的文件或数据放入内存中进行操作处理,因为内存读写操作比直接磁盘读写的效率要高千倍。
  • 将经常进行读写的文件与长期不变的文件独立出来,分别放置到不同的磁盘设备上。
  • 对于写操作频繁的数据,可以考虑使用裸设备代替文件系统。


文件系统与裸设备的对比


使用裸设备的优点:

- 数据可以直接读写,不需要经过操作系统级的缓存,节省了内存资源,避免了内存资源争用。

- 避免了文件系统级的维护开销,比如文件系统需要维护超级块、inode等。

- 避免了操作系统的缓存预读功能,减少了I/O请求。


使用裸设备的缺点:

- 数据管理、空间管理不灵活,需要很专业的人来操作。

其实裸设备的优点就是文件系统的缺点,反之也是如此。合理的规划和衡量,根据应用的需求,做出对应的策略。


裸设备 raw device



aab3d5054d454f379efe4c3e14b10cc8.png


磁盘I/O性能评判标准


558a3c366f394550b5284331ec3b833d.png


正常情况下,svctm应该是小于await值的,而svctm的大小和磁盘性能有关,CPU、内存的负荷也会对svctm值造成影响,过多的请求也会间接导致svctm值的增加。


await值的大小一般取决于svctm的值和I/O队列长度以及I/O请求模式。如果svctm的值与await很接近,表示几乎没有I/O等待,磁盘性能很好。如果await的值远高于svctm的值,则表示I/O队列等待太长,系统上运行的应用程序将变慢,此时可以通过更换更快的硬盘来解决问题。


%util项的值也是衡量磁盘I/O的一个重要指标。如果%util接近100%,表示磁盘产生的I/O请求太多,I/O系统已经满负荷地在工作,该磁盘可能存在瓶颈。长期下去,势必影响系统的性能,可以通过优化程序或者通过更换更高、更快的磁盘来解决此问题。


常用命令

sar –d”命令组合

通过“sar –d”命令组合,可以对系统的磁盘I/O做一个基本的统计

[root@VM-24-3-centos ~]# sar -d 2 3
Linux 3.10.0-1160.11.1.el7.x86_64 (VM-24-3-centos)      03/06/2023      _x86_64_        (2 CPU)
08:56:57 AM       DEV       tps  rd_sec/s  wr_sec/s  avgrq-sz  avgqu-sz     await     svctm     %util
08:56:59 AM  dev253-0      1.50      0.00     12.00      8.00      0.00      1.00      0.33      0.05
08:56:59 AM   dev11-0      0.00      0.00      0.00      0.00      0.00      0.00      0.00      0.00
08:56:59 AM       DEV       tps  rd_sec/s  wr_sec/s  avgrq-sz  avgqu-sz     await     svctm     %util
08:57:01 AM  dev253-0     54.00      0.00    640.00     11.85      0.20      3.84      0.18      0.95
08:57:01 AM   dev11-0      0.00      0.00      0.00      0.00      0.00      0.00      0.00      0.00
08:57:01 AM       DEV       tps  rd_sec/s  wr_sec/s  avgrq-sz  avgqu-sz     await     svctm     %util
08:57:03 AM  dev253-0      0.00      0.00      0.00      0.00      0.00      0.00      0.00      0.00
08:57:03 AM   dev11-0      0.00      0.00      0.00      0.00      0.00      0.00      0.00      0.00
Average:          DEV       tps  rd_sec/s  wr_sec/s  avgrq-sz  avgqu-sz     await     svctm     %util
Average:     dev253-0     18.50      0.00    217.33     11.75      0.07      3.77      0.18      0.33
Average:      dev11-0      0.00      0.00      0.00      0.00      0.00      0.00      0.00      0.00
[root@VM-24-3-centos ~]#

558a3c366f394550b5284331ec3b833d.png



DEV表示磁盘设备名称。

tps表示每秒到物理磁盘的传送数,也就是每秒的I/O流量。一个传送就是一个I/O请求,多个逻辑请求可以合并为一个物理I/O请求。

rd_sec/s表示每秒从设备读取的扇区数(1扇区=512字节)。

wr_sec/s表示每秒写入设备的扇区数目。

avgrq-sz表示平均每次设备I/O操作的数据大小(以扇区为单位)。

avgqu-sz表示平均I/O队列长度。

await表示平均每次设备I/O操作的等待时间(以毫秒为单位)。

svctm表示平均每次设备I/O操作的服务时间(以毫秒为单位)。

%util表示一秒中有百分之几的时间用于I/O操作。

Linux中I/O请求系统与现实生活中超市购物排队系统有很多类似的地方,通过对超市购物排队系统的理解,可以很快掌握Linux中I/O运行机制。比如:


avgrq-sz类似于超市排队中每人所买东西的多少。

avgqu-sz类似于超市排队中单位时间内平均排队的人数。

await类似于超市排队中每人的等待时间。

svctm类似于超市排队中收银员的收款速度。

%util类似于超市收银台前有人排队的时间比例。


“iostat –d”命令组合

[root@VM-24-3-centos ~]#  iostat -d 2 3
Linux 3.10.0-1160.11.1.el7.x86_64 (VM-24-3-centos)      03/06/2023      _x86_64_        (2 CPU)
Device:            tps    kB_read/s    kB_wrtn/s    kB_read    kB_wrtn
vda               3.91         1.06        29.56   21828907  611223560
scd0              0.00         0.00         0.00        316          0
Device:            tps    kB_read/s    kB_wrtn/s    kB_read    kB_wrtn
vda               0.00         0.00         0.00          0          0
scd0              0.00         0.00         0.00          0          0
Device:            tps    kB_read/s    kB_wrtn/s    kB_read    kB_wrtn
vda               0.50         0.00         4.00          0          8
scd0              0.00         0.00         0.00          0          0
[root@VM-24-3-centos ~]#


c2a0a0cdf23044d4b60e76bd99fec938.png


tps:该设备每秒的传输次数(Indicate the number of transfers per second that were issued to the device.)。“一次传输"意思是"一次I/O请求”。多个逻辑请求可能会被合并为"一次I/O请求"。"一次传输"请求的大小是未知的。

kB_read/s:每秒从设备(drive expressed)读取的数据量;

kB_wrtn/s:每秒向设备(drive expressed)写入的数据量;

kB_read:读取的总数据量;

kB_wrtn:写入的总数量数据量;这些单位都为Kilobytes。

这里需要注意的一点是,上面输出上的第一项是系统从启动以来到统计时的所有传输信息,第二次输出的数据才代表在检测的时间段内系统的传输值。


“iostat –x”单独统计某个磁盘的I/O


“iostat –x”命令组合还提供了对每个磁盘的单独统计,如果不指定磁盘,默认对所有磁盘进行统计

467ceec7734e43ccb7e2fff6bfa2fe93.png


  • rrqm/s表示每秒进行合并的读操作数目。
  • wrqm/s表示每秒进行合并的写操作数目。
  • r/s表示每秒完成读I/O设备的次数。
  • w/s表示每秒完成写I/O设备的次数。
  • rsec/s表示每秒读取的扇区数。
  • wsec/s表示每秒写入的扇区数。


“vmstat –d”命令组合


通过“vmstat –d”命令组合也可以查看磁盘的统计数据。


[root@VM-24-3-centos ~]# vmstat -d 3 2
disk- ------------reads------------ ------------writes----------- -----IO------
       total merged sectors      ms  total merged sectors      ms    cur    sec
vda   591170   3530 43657830 4460432 80215339 54988709 1222778513 249512681      0  25485
sr0       89      0     632      22      0      0       0       0      0      0
vda   591170   3530 43657830 4460432 80215379 54988754 1222779225 249512735      0  25485
sr0       89      0     632      22      0      0       0       0      0      0
[root@VM-24-3-centos ~]#


显示了磁盘的reads、writes和IO的使用状况。


小结


衡量磁盘I/O好坏是多方面的,有应用程序本身的,也有硬件设计上的,还有系统自身配置的问题等。要解决I/O的瓶颈,关键是要提高I/O子系统的执行效率。


首要,要从应用程序上对磁盘读写进行优化,能够放到内存中执行的操作,尽量不要放到磁盘上。

其次,对磁盘存储方式进行合理规划,选择适合自己的RAID存取方式。

最后,在系统级别上,可以选择适合自身应用的文件系统,必要时使用裸设备提高读写性能。

相关文章
|
25天前
|
Ubuntu Linux 网络安全
Linux磁盘挂接教程
Linux磁盘挂接教程
62 14
|
2月前
|
运维 监控 Linux
BPF及Linux性能调试探索初探
BPF技术从最初的网络数据包过滤发展为强大的系统性能优化工具,无需修改内核代码即可实现实时监控、动态调整和精确分析。本文深入探讨BPF在Linux性能调试中的应用,介绍bpftune和BPF-tools等工具,并通过具体案例展示其优化效果。
102 14
|
2月前
|
存储 缓存 网络协议
Linux操作系统的内核优化与性能调优####
本文深入探讨了Linux操作系统内核的优化策略与性能调优方法,旨在为系统管理员和高级用户提供一套实用的指南。通过分析内核参数调整、文件系统选择、内存管理及网络配置等关键方面,本文揭示了如何有效提升Linux系统的稳定性和运行效率。不同于常规摘要仅概述内容的做法,本摘要直接指出文章的核心价值——提供具体可行的优化措施,助力读者实现系统性能的飞跃。 ####
|
3月前
|
缓存 Ubuntu Linux
Linux环境下测试服务器的DDR5内存性能
通过使用 `memtester`和 `sysbench`等工具,可以有效地测试Linux环境下服务器的DDR5内存性能。这些工具不仅可以评估内存的读写速度,还可以检测内存中的潜在问题,帮助确保系统的稳定性和性能。通过合理配置和使用这些工具,系统管理员可以深入了解服务器内存的性能状况,为系统优化提供数据支持。
115 4
|
3月前
|
缓存 算法 Linux
深入理解Linux内核调度器:公平性与性能的平衡####
真知灼见 本文将带你深入了解Linux操作系统的核心组件之一——完全公平调度器(CFS),通过剖析其设计原理、工作机制以及在实际系统中的应用效果,揭示它是如何在众多进程间实现资源分配的公平性与高效性的。不同于传统的摘要概述,本文旨在通过直观且富有洞察力的视角,让读者仿佛亲身体验到CFS在复杂系统环境中游刃有余地进行任务调度的过程。 ####
75 6
|
3月前
|
监控 网络协议 算法
Linux内核优化:提升系统性能与稳定性的策略####
本文深入探讨了Linux操作系统内核的优化策略,旨在通过一系列技术手段和最佳实践,显著提升系统的性能、响应速度及稳定性。文章首先概述了Linux内核的核心组件及其在系统中的作用,随后详细阐述了内存管理、进程调度、文件系统优化、网络栈调整及并发控制等关键领域的优化方法。通过实际案例分析,展示了这些优化措施如何有效减少延迟、提高吞吐量,并增强系统的整体健壮性。最终,文章强调了持续监控、定期更新及合理配置对于维持Linux系统长期高效运行的重要性。 ####
|
3月前
|
人工智能 安全 Linux
|
4月前
|
存储 监控 固态存储
Linux中提高性能
【10月更文挑战第6天】
54 2
|
4月前
|
存储 缓存 监控
Linux中内存和性能问题
【10月更文挑战第5天】
54 4
|
4月前
|
监控 Linux 测试技术
Linux系统命令与网络,磁盘和日志监控总结
Linux系统命令与网络,磁盘和日志监控总结
103 0