制作软RAID

简介:
RAID 全名是Redundant Array of Independent Disk 的缩写,中文意识是独立冗余磁盘阵列
 RAID 采用存储系统,其提高传输速率和提供容错,可靠性,扩大存储等功能
 
 
 第一   RAID 0
   实验前准备,因为实验是在虚拟机上做的,先为虚拟机加快硬盘为了在实验,我一般吧磁盘都分为512M
查看磁盘,进行磁盘分区
  #fdisk –l
  #fdisk /dev/sdc
 
但是 RAID 必须把文件类型转化为LINUX  RAID  AUTODECET的类型
 
#command  m for help): t
#partition number  1-2  fd
          :应为我们的就分了两个区   在这只需把需要改变的磁盘文件类型的区号。
 
# Hex code type L to list codes):  需要输入要改变文件类型的代号    可以输入大写的 可以查看文件系统类型
使mdadm 命令进行创建RAID0
 #mdadm  -v –C  /dev/md0  -a yes  -l  0   -n  2  /dev/sdc{1,2}
    /dev/md0  是要创建的 RAID 0  的名    -l  是说明要创建是那一种 RAID  级别 ,
-n  是要说明你创建的 RAID 0  有几个设备
 
 
执行cat /proc/mdstat查看创建的RAID 0
 
 
格式化创建的RAID 0 ,但是在格式化前必须先执行partporbe
 #mkfs.ext3  /dev/md0
创建目录并挂载
#mkdir   /RAID0
#mount /dev/md0   /RAID0
并执行mount查看
#mount
   
7执行命令查看磁盘的情况
# df –lh
  第二  RAID 1
 
 
  1   同样在创建 RAID 1  是也需要准备虚拟机重新挂载硬盘,分区,
同样是两个分区,且都是 512m 并转化成 RAID LINUX AUTODECET  类型的,该过程和在创建 RAID0 时的过程一样,在此略过
2 执行命令创建 RAID1
 #mdadm –v –C  /dev/md1  -a  yes  -l 1  –n 2 /dev/sdc{3,5}
执行命令查看
 #cat  /proc/mdstat
执行命令:
#partprobe
 
 
格式化磁盘
 
建立文件夹
 #mkdir  /RAID1
 
6 建立挂载点,并挂载 RAID1
  要是在开机自动挂载是应该编辑文件 /etc/fstab 文件
 # vim /etc/fstab
 /dev/md1    /RAID1     ext3      default       0 0
 
 
#mount /dev/md1   /RAID1
 
查看 raid1  的信息
 
 #mdadm   --detail  /dev/md1
 
 
 
 
 
 
 
RAID 5
在做 raid 5  应先分区,分三个区   在这就不指明分区的大小
当然在这就不再重复前面的磁盘分区了,但是在分区后就必须指明文件系统类型,当然文件的系统类型必须是 fd   fd   对应的三个是  linux raid autodetect
  应为在做 raid5  是至少要三块磁盘,且其中一块磁盘做热备。当准备工作完成后,开始配置 raid5
1 . 创建 raid5 
# mdadm   -v  -C  /dev/md5   -a yes –l 5 –n  3  -x  1 /dev/sdd{1,5,6}
   mdadm layout  defaults to left-symmetric
   mdadm: chunk size defaults to 64k
   mdadm  size  set  to  987840
   mdadm : array  /dev/md5   started
`2  查看文文件 /part/mdstat
#cat  /part/mdstat
Personalitiles    [raid6] [raid5] [raid4]
Md5 : active raid5 sdd6[2] sdd7[3](s) sdd5[1] sdd1[0]
      1975680 blocks level 5, 64k chunk , algorithm 2 [3/3] [uuu]
Unused devices:<none>
 
格式化磁盘
  # mkfs.etx3   /devmd5
 
  ARRAY /dev/md5 level=raid5 num-devices=3 metadata=0.90 spares=1 UUID=c1f61914:fce7d526:78b0a85c:52386d13
 
 
mke2fs 1.39 (29-May-2006)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
247296 inodes, 493920 blocks
24696 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=507510784
16 block groups
32768 blocks per group, 32768 fragments per group
15456 inodes per group
Superblock backups stored on blocks:
        32768, 98304, 163840, 229376, 294912
 
Writing inode tables: done                           
Creating journal (8192 blocks): done
Writing superblocks and filesystem accounting information: done
 
This filesystem will be automatically checked every 23 mounts or
180 days, whichever comes first.  Use tune2fs -c or -i to override.
 
 
 
 
 
  挂载 raid 5  ,但是先建立挂载点,当然要是开机在东挂载是需要编辑文件 /etc/fstab
  #mkdir  /RAID5
  #vim  /etc/fstab
  /dev/md5      /RAID5   ext3   defaults   0  0
  
  如果是直接挂载则不需要编辑文件 /etc/fstab ,直接挂载
# mount  /dev/md5     /RAID5
 
 
       查看 raid5  的信息
  # mdadm   --detail   /dev/md5
 
   /dev/md5:
        Version : 0.90
  Creation Time : Sun Feb  7 21:46:27 2010
     Raid Level : raid5
     Array Size : 1975680 (1929.70 MiB 2023.10 MB)
  Used Dev Size : 987840 (964.85 MiB 1011.55 MB)
   Raid Devices : 3
  Total Devices : 4
Preferred Minor : 5
    Persistence : Superblock is persistent
 
    Update Time : Sun Feb  7 21:51:31 2010
          State : clean
 Active Devices : 3
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 1
 
         Layout : left-symmetric
     Chunk Size : 64K
 
           UUID : c1f61914:fce7d526:78b0a85c:52386d13
         Events : 0.2
 
    Number   Major   Minor   RaidDevice State
       0       8       49        0      active sync   /dev/sdd1
       1       8       53        1      active sync   /dev/sdd5
       2       8       54        2      active sync   /dev/sdd6
 
       3       8       55        -      spare   /dev/sdd7
 
模拟 raid5  卷中其中的一个分区坏掉
 # mdadm  /dev/md5   -f   /dev/sdd6
 
mdadm   set /dev/sdd6  faulty   in /dev/md5
 
 
 
 
再次查看 raid5
 # mdadm  --detail  /dev/md5
dev/md5:
        Version : 0.90
  Creation Time : Sun Feb  7 21:46:27 2010
     Raid Level : raid5
     Array Size : 1975680 (1929.70 MiB 2023.10 MB)
  Used Dev Size : 987840 (964.85 MiB 1011.55 MB)
   Raid Devices : 3
  Total Devices : 4
Preferred Minor : 5
    Persistence : Superblock is persistent
 
    Update Time : Sun Feb  7 21:51:31 2010
          State : clean
 Active Devices : 3
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 1
 
         Layout : left-symmetric
     Chunk Size : 64K
 
           UUID : c1f61914:fce7d526:78b0a85c:52386d13
         Events : 0.2
 
    Number   Major   Minor   RaidDevice State
       0       8       49        0      active sync   /dev/sdd1
       1       8       53        1      active sync   /dev/sdd5
       2       8       54        2      active sync   /dev/sdd7
 
       3       8       55        -      spare   /dev/sdd6
 
 
 
同是可以把一个新设备加进 raid5  中:   如果说新分的磁盘分区,要先执行下 partporbe ,在进行添加
 # mdadm   RAID 设备”  –a   “分区”
 # mdadm    /dev/md5    -a   /dev/sdd8
  Mdadm    added   /dev/sdd8
 
再次查看 /dev/md5
# mdadm  --detail   /dev/md5
dev/md5:
        Version : 0.90
  Creation Time : Sun Feb  7 21:46:27 2010
     Raid Level : raid5
     Array Size : 1975680 (1929.70 MiB 2023.10 MB)
  Used Dev Size : 987840 (964.85 MiB 1011.55 MB)
   Raid Devices : 3
  Total Devices : 4
Preferred Minor : 5
    Persistence : Superblock is persistent
 
    Update Time : Sun Feb  7 21:51:31 2010
          State : clean
 Active Devices : 3
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 1
 
         Layout : left-symmetric
     Chunk Size : 64K
 
           UUID : c1f61914:fce7d526:78b0a85c:52386d13
         Events : 0.2
 
    Number   Major   Minor   RaidDevice State
       0       8       49        0      active sync   /dev/sdd1
       1       8       53        1      active sync   /dev/sdd5
       2       8       54        2      active sync   /dev/sdd6
 
       3       8       55        -      faulty spare   /dev/sdd7
   4       8        56       -      spare        /dev/sdd8
 
10  当然可以停止磁盘阵列,也可以启用磁盘阵列
 # mdadm  -A   磁盘阵列名 ”  表示启用 s 设备、
     # mdadm   -scan   扫描磁盘阵列
      # mdadm   -S   表示停止磁盘阵列









本文转自 freehat08 51CTO博客,原文链接:http://blog.51cto.com/freehat/278548,如需转载请自行联系原作者
目录
相关文章
|
2月前
|
Linux
使用mdadm工具实现软RAID 0实战案例
文章介绍了如何使用mdadm工具在Linux系统中创建和管理软RAID 0设备,包括准备工作、创建RAID 0、格式化文件系统、挂载RAID设备、测试读写速度以及重启服务器后验证RAID设备是否自动挂载的完整过程。
79 2
使用mdadm工具实现软RAID 0实战案例
|
2月前
|
Linux 测试技术
使用mdadm工具实现软RAID 5实战案例
文章详细介绍了如何使用mdadm工具在Linux系统中创建和管理软RAID 5设备,包括准备工作、创建RAID 5、格式化文件系统、挂载RAID设备、测试读写速度、备份配置信息、手动下线和添加设备以及禁用和启用RAID设备的完整过程。
182 0
使用mdadm工具实现软RAID 5实战案例
|
Linux 计算机视觉
【Linux】(超详细步骤)构建软RAID磁盘阵列
【Linux】(超详细步骤)构建软RAID磁盘阵列
1162 1
|
运维 Linux 虚拟化
服务器制作RAID磁盘阵列并管理
服务器制作RAID磁盘阵列并管理
284 0
|
存储 固态存储 测试技术
服务器硬件RAID性能横评(1)(下)
服务器硬件RAID性能横评(1)
服务器硬件RAID性能横评(1)(下)
|
存储 Unix Linux
硬件 RAID 与软件 RAID 之间的区别
独立磁盘冗余阵列 (RAID) 是一种将多个物理驱动器组合到一个单元中的虚拟磁盘技术。这是一种通过使用多个驱动器来提高存储介质的性能和可靠性的方法。驱动器配置为在磁盘之间划分数据以分配负载,或者复制数据以确保在磁盘发生故障后可以恢复数据。RAID 的执行可以使用特殊控制器(硬件 RAID)或操作系统驱动程序(软件 RAID)来完成。
320 0
|
存储 Linux