【运维】 mdadm Raid5模拟坏盘实验

简介: mdadm Raid5模拟坏盘实验

 

新添加一块磁盘为sdb大小40G

image.png

 

sdb进行分区操作

image.png

 

#分区4个,大小都为10G

[root@localhost ~]# lsblk
NAME        MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sdb           8:16   0  41G  0 disk 
├─sdb1       8:17   0   10G  0 part 
├─sdb2       8:18   0   10G  0 part 
├─sdb3       8:19   0   10G  0 part 
└─sdb4        8:20  0   10G  0 part

#创建raid5,添加sdb1-3,将sdb4作为热备盘

[root@localhost ~]# mdadm -C -v /dev/md0 -l5 -n3 /dev/sdb[1-3] --spare-devices=1 /dev/sdb4

image.png

 

#查看md添加状态

[root@localhost ~]# cat /proc/mdstat

image.png

 

#显示raid详细信息,如下sdb1-3为激活同步状态,sdb4为备份状态

[root@localhost ~]# mdadm -D /dev/md0
。。。。。。。
    Number  Major   Minor   RaidDevice State
       0      8       17        0     active sync   /dev/sdb1
       1      8       18        1     active sync   /dev/sdb2
       4      8       19        2     active sync   /dev/sdb3
       3      8       20        -     spare   /dev/sdb4

 

image.png

 

#执行-f强制标记分区为faulty状态,人为模拟硬盘故障

[root@localhost ~]# mdadm -f /dev/md0 /dev/sdb2
mdadm: set /dev/sdb2 faulty in /dev/md0

image.png

 

#查看md0状态,已经显示sdb2为错误状态,而之前的热备盘sdb4已经参与重建

[root@localhost ~]# mdadm -D /dev/md0
。。。。。。。
    State : clean, degraded, recovering
。。。。。。。
    Number  Major   Minor   RaidDevice State
       0      8       17        0     active sync   /dev/sdb1
       3      8       20        1     spare rebuilding   /dev/sdb4
       4      8       19        2     active sync   /dev/sdb3
       1      8       18        -     faulty   /dev/sdb2

image.png

 

#稍等片刻后再次查看md0信息,热备盘已经处于正常同步状态

[root@localhost ~]# mdadm -D /dev/md0
。。。。。。。
    Number  Major   Minor   RaidDevice State
       0      8       17        0     active sync   /dev/sdb1
       3      8       20        1     active sync   /dev/sdb4
       4      8       19        2     active sync   /dev/sdb3
       1      8       18        -     faulty   /dev/sdb2

#移除错误盘sdb2

[root@localhost ~]# mdadm -r /dev/md0 /dev/sdb2
mdadm: hot removed /dev/sdb2 from /dev/md0
[root@localhost ~]# mdadm -D /dev/md0
。。。。。。。
    Number  Major   Minor   RaidDevice State
       0      8       17        0     active sync   /dev/sdb1
       3      8       20        1     active sync   /dev/sdb4
       4      8       19        2     active sync   /dev/sdb3

image.png

 

#格式化md0,成功挂载到目录,raid正常工作

[root@localhost ~]# mkfs.xfs /dev/md0
[root@localhost ~]# mount /dev/md0 /mnt/
[root@localhost ~]# df -h
文件系统             容量  已用  可用 已用% 挂载点
/dev/md0              20G   33M  20G    1% /mnt

image.png

 

#重新添加sdb2raid中,正常状态为spare

[root@localhost ~]# mdadm -a /dev/md0 /dev/sdb2
mdadm: added /dev/sdb2
[root@localhost ~]# mdadm -D /dev/md0
。。。。。。
    Number  Major   Minor   RaidDevice State
       0      8       17        0     active sync   /dev/sdb1
       3      8       20        1     active sync   /dev/sdb4
       4      8       19        2     active sync   /dev/sdb3
       5      8       18        -     spare   /dev/sdb2
相关文章
|
7月前
|
监控 算法 Linux
利用mdadm工具构建RAID 0/1/5/6/10磁盘阵列实战(超详细)
利用mdadm工具构建RAID 0/1/5/6/10磁盘阵列实战(超详细)
131 0
|
11月前
|
Linux 计算机视觉
【Linux】(超详细步骤)构建软RAID磁盘阵列
【Linux】(超详细步骤)构建软RAID磁盘阵列
796 1
|
11月前
|
运维
[运维]Dell R710 raid配置
[运维]Dell R710 raid配置
234 0
|
Linux
使用软件搭建RAID10
使用软件搭建RAID10
145 0
使用软件搭建RAID10
|
存储 算法 开发工具
服务器硬件及RAID配置实践
1、RAID磁盘阵列介绍 2、创建RAID磁盘阵列
服务器硬件及RAID配置实践
|
存储 存储控制器 芯片