制作软RAID

简介:
RAID 全名是Redundant Array of Independent Disk 的缩写,中文意识是独立冗余磁盘阵列
 RAID 采用存储系统,其提高传输速率和提供容错,可靠性,扩大存储等功能
 
 
 第一   RAID 0
   实验前准备,因为实验是在虚拟机上做的,先为虚拟机加快硬盘为了在实验,我一般吧磁盘都分为512M
查看磁盘,进行磁盘分区
  #fdisk –l
  #fdisk /dev/sdc
 
但是 RAID 必须把文件类型转化为LINUX  RAID  AUTODECET的类型
 
#command  m for help): t
#partition number  1-2  fd
          :应为我们的就分了两个区   在这只需把需要改变的磁盘文件类型的区号。
 
# Hex code type L to list codes):  需要输入要改变文件类型的代号    可以输入大写的 可以查看文件系统类型
使mdadm 命令进行创建RAID0
 #mdadm  -v –C  /dev/md0  -a yes  -l  0   -n  2  /dev/sdc{1,2}
    /dev/md0  是要创建的 RAID 0  的名    -l  是说明要创建是那一种 RAID  级别 ,
-n  是要说明你创建的 RAID 0  有几个设备
 
 
执行cat /proc/mdstat查看创建的RAID 0
 
 
格式化创建的RAID 0 ,但是在格式化前必须先执行partporbe
 #mkfs.ext3  /dev/md0
创建目录并挂载
#mkdir   /RAID0
#mount /dev/md0   /RAID0
并执行mount查看
#mount
   
7执行命令查看磁盘的情况
# df –lh
  第二  RAID 1
 
 
  1   同样在创建 RAID 1  是也需要准备虚拟机重新挂载硬盘,分区,
同样是两个分区,且都是 512m 并转化成 RAID LINUX AUTODECET  类型的,该过程和在创建 RAID0 时的过程一样,在此略过
2 执行命令创建 RAID1
 #mdadm –v –C  /dev/md1  -a  yes  -l 1  –n 2 /dev/sdc{3,5}
执行命令查看
 #cat  /proc/mdstat
执行命令:
#partprobe
 
 
格式化磁盘
 
建立文件夹
 #mkdir  /RAID1
 
6 建立挂载点,并挂载 RAID1
  要是在开机自动挂载是应该编辑文件 /etc/fstab 文件
 # vim /etc/fstab
 /dev/md1    /RAID1     ext3      default       0 0
 
 
#mount /dev/md1   /RAID1
 
查看 raid1  的信息
 
 #mdadm   --detail  /dev/md1
 
 
 
 
 
 
 
RAID 5
在做 raid 5  应先分区,分三个区   在这就不指明分区的大小
当然在这就不再重复前面的磁盘分区了,但是在分区后就必须指明文件系统类型,当然文件的系统类型必须是 fd   fd   对应的三个是  linux raid autodetect
  应为在做 raid5  是至少要三块磁盘,且其中一块磁盘做热备。当准备工作完成后,开始配置 raid5
1 . 创建 raid5 
# mdadm   -v  -C  /dev/md5   -a yes –l 5 –n  3  -x  1 /dev/sdd{1,5,6}
   mdadm layout  defaults to left-symmetric
   mdadm: chunk size defaults to 64k
   mdadm  size  set  to  987840
   mdadm : array  /dev/md5   started
`2  查看文文件 /part/mdstat
#cat  /part/mdstat
Personalitiles    [raid6] [raid5] [raid4]
Md5 : active raid5 sdd6[2] sdd7[3](s) sdd5[1] sdd1[0]
      1975680 blocks level 5, 64k chunk , algorithm 2 [3/3] [uuu]
Unused devices:<none>
 
格式化磁盘
  # mkfs.etx3   /devmd5
 
  ARRAY /dev/md5 level=raid5 num-devices=3 metadata=0.90 spares=1 UUID=c1f61914:fce7d526:78b0a85c:52386d13
 
 
mke2fs 1.39 (29-May-2006)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
247296 inodes, 493920 blocks
24696 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=507510784
16 block groups
32768 blocks per group, 32768 fragments per group
15456 inodes per group
Superblock backups stored on blocks:
        32768, 98304, 163840, 229376, 294912
 
Writing inode tables: done                           
Creating journal (8192 blocks): done
Writing superblocks and filesystem accounting information: done
 
This filesystem will be automatically checked every 23 mounts or
180 days, whichever comes first.  Use tune2fs -c or -i to override.
 
 
 
 
 
  挂载 raid 5  ,但是先建立挂载点,当然要是开机在东挂载是需要编辑文件 /etc/fstab
  #mkdir  /RAID5
  #vim  /etc/fstab
  /dev/md5      /RAID5   ext3   defaults   0  0
  
  如果是直接挂载则不需要编辑文件 /etc/fstab ,直接挂载
# mount  /dev/md5     /RAID5
 
 
       查看 raid5  的信息
  # mdadm   --detail   /dev/md5
 
   /dev/md5:
        Version : 0.90
  Creation Time : Sun Feb  7 21:46:27 2010
     Raid Level : raid5
     Array Size : 1975680 (1929.70 MiB 2023.10 MB)
  Used Dev Size : 987840 (964.85 MiB 1011.55 MB)
   Raid Devices : 3
  Total Devices : 4
Preferred Minor : 5
    Persistence : Superblock is persistent
 
    Update Time : Sun Feb  7 21:51:31 2010
          State : clean
 Active Devices : 3
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 1
 
         Layout : left-symmetric
     Chunk Size : 64K
 
           UUID : c1f61914:fce7d526:78b0a85c:52386d13
         Events : 0.2
 
    Number   Major   Minor   RaidDevice State
       0       8       49        0      active sync   /dev/sdd1
       1       8       53        1      active sync   /dev/sdd5
       2       8       54        2      active sync   /dev/sdd6
 
       3       8       55        -      spare   /dev/sdd7
 
模拟 raid5  卷中其中的一个分区坏掉
 # mdadm  /dev/md5   -f   /dev/sdd6
 
mdadm   set /dev/sdd6  faulty   in /dev/md5
 
 
 
 
再次查看 raid5
 # mdadm  --detail  /dev/md5
dev/md5:
        Version : 0.90
  Creation Time : Sun Feb  7 21:46:27 2010
     Raid Level : raid5
     Array Size : 1975680 (1929.70 MiB 2023.10 MB)
  Used Dev Size : 987840 (964.85 MiB 1011.55 MB)
   Raid Devices : 3
  Total Devices : 4
Preferred Minor : 5
    Persistence : Superblock is persistent
 
    Update Time : Sun Feb  7 21:51:31 2010
          State : clean
 Active Devices : 3
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 1
 
         Layout : left-symmetric
     Chunk Size : 64K
 
           UUID : c1f61914:fce7d526:78b0a85c:52386d13
         Events : 0.2
 
    Number   Major   Minor   RaidDevice State
       0       8       49        0      active sync   /dev/sdd1
       1       8       53        1      active sync   /dev/sdd5
       2       8       54        2      active sync   /dev/sdd7
 
       3       8       55        -      spare   /dev/sdd6
 
 
 
同是可以把一个新设备加进 raid5  中:   如果说新分的磁盘分区,要先执行下 partporbe ,在进行添加
 # mdadm   RAID 设备”  –a   “分区”
 # mdadm    /dev/md5    -a   /dev/sdd8
  Mdadm    added   /dev/sdd8
 
再次查看 /dev/md5
# mdadm  --detail   /dev/md5
dev/md5:
        Version : 0.90
  Creation Time : Sun Feb  7 21:46:27 2010
     Raid Level : raid5
     Array Size : 1975680 (1929.70 MiB 2023.10 MB)
  Used Dev Size : 987840 (964.85 MiB 1011.55 MB)
   Raid Devices : 3
  Total Devices : 4
Preferred Minor : 5
    Persistence : Superblock is persistent
 
    Update Time : Sun Feb  7 21:51:31 2010
          State : clean
 Active Devices : 3
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 1
 
         Layout : left-symmetric
     Chunk Size : 64K
 
           UUID : c1f61914:fce7d526:78b0a85c:52386d13
         Events : 0.2
 
    Number   Major   Minor   RaidDevice State
       0       8       49        0      active sync   /dev/sdd1
       1       8       53        1      active sync   /dev/sdd5
       2       8       54        2      active sync   /dev/sdd6
 
       3       8       55        -      faulty spare   /dev/sdd7
   4       8        56       -      spare        /dev/sdd8
 
10  当然可以停止磁盘阵列,也可以启用磁盘阵列
 # mdadm  -A   磁盘阵列名 ”  表示启用 s 设备、
     # mdadm   -scan   扫描磁盘阵列
      # mdadm   -S   表示停止磁盘阵列









本文转自 freehat08 51CTO博客,原文链接:http://blog.51cto.com/freehat/278548,如需转载请自行联系原作者
目录
相关文章
|
2月前
|
Linux
使用mdadm工具实现软RAID 0实战案例
文章介绍了如何使用mdadm工具在Linux系统中创建和管理软RAID 0设备,包括准备工作、创建RAID 0、格式化文件系统、挂载RAID设备、测试读写速度以及重启服务器后验证RAID设备是否自动挂载的完整过程。
93 2
使用mdadm工具实现软RAID 0实战案例
|
2月前
|
Linux 测试技术
使用mdadm工具实现软RAID 5实战案例
文章详细介绍了如何使用mdadm工具在Linux系统中创建和管理软RAID 5设备,包括准备工作、创建RAID 5、格式化文件系统、挂载RAID设备、测试读写速度、备份配置信息、手动下线和添加设备以及禁用和启用RAID设备的完整过程。
213 0
使用mdadm工具实现软RAID 5实战案例
|
存储 容灾
百度搜索:蓝易云【RAID0、RAID1、RAID5、RAID10特点是什么?所需的硬盘数量分别为多少?容灾级别如何?】
需要注意的是,以上硬盘数量是最低要求,实际应用中可以使用更多硬盘来进一步增加性能和容灾能力。此外,RAID的性能和容灾级别还受到控制器、硬盘类型和配置参数等因素的影响。
452 0
|
Linux 计算机视觉
【Linux】(超详细步骤)构建软RAID磁盘阵列
【Linux】(超详细步骤)构建软RAID磁盘阵列
1186 1
|
运维 Linux 虚拟化
服务器制作RAID磁盘阵列并管理
服务器制作RAID磁盘阵列并管理
288 0
|
存储 Linux
下一篇
无影云桌面