服务器制作RAID磁盘阵列并管理

简介: 服务器制作RAID磁盘阵列并管理

服务器制作RAID磁盘阵列并管理

目录

(1)RAID构建、挂载、使用
(2)RAID基础运维


前期准备

使用VMware Workstation 安装CentOS 7.2 操作系统,镜像使用提供的CentOS-7-x86-DVD-1511.iso,并添加4块20GB硬盘。YUM源使用提供的mdadm_yum文件夹。


实验步骤

1、创建RAID

(1)创建RAID 0

利用磁盘分区新建2个磁盘分区,每个大小为20GB.用着2个20GB的分区来模拟1个40GB的硬盘

[root@localhost ~]# lsblk

NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT

sda 8:0 0 20G 0 disk

├─sda1 8:1 0 200M 0 part /boot

├─sda2 8:2 0 15G 0 part /

└─sda3 8:3 0 1.6G 0 part [SWAP]

sdb 8:16 0 20G 0 disk

sdc 8:32 0 20G 0 disk


配置本地YUM安装源,将提供的mdadm_yum文件夹上传至/opt目录下,具体操作如下。

[root@localhost ~]# cd /opt/

[root@localhost opt]#

[root@localhost opt]#

[root@localhost opt]# ll

total 4

drwxr-xr-x. 4 root root 4096 Jun 15 17:43 mdadm_yum

[root@localhost ~]# mv /etc/yum.repos.d/* /media/

[root@localhost ~]# vi /etc/yum.repos.d/yum.repo

[root@localhost ~]# cat /etc/yum.repos.d/yum.repo

[mdadm]

name=mdadm

baseurl=file:///opt/mdadm_yum/

gpgcheck=0

enabled=1


安装工具mdadm,使用已有YUM源进行安装,命令如下。

[root@localhost ~]# yum install -y mdadm

Loaded plugins: fastestmirror

mdadm | 3.0 kB 00:00:00

mdadm/primary_db | 3.0 kB 00:00:00

Determining fastest mirrors

Resolving Dependencies

–> Running transaction check

—> Package mdadm.x86_64 0:4.1-1.el7 will be installed

–> Processing Dependency: libreport-filesystem for package: mdadm-4.1-1.el7.x86_64

–> Running transaction check

—> Package libreport-filesystem.x86_64 0:2.1.11-43.el7.centos will be installed

–> Finished Dependency Resolution


Dependencies Resolved


Package Arch Version Repository Size


Installing:

mdadm x86_64 4.1-1.el7 mdadm 435 k

Installing for dependencies:

libreport-filesystem x86_64 2.1.11-43.el7.centos mdadm 40 k


Transaction Summary

Install 1 Package (+1 Dependent package)


Total download size: 475 k

Installed size: 1.0 M

Downloading packages:

Total 154 MB/s | 475 kB 00:00:00

Running transaction check

Running transaction test

Transaction test succeeded

Running transaction

Installing : libreport-filesystem-2.1.11-43.el7.centos.x86_64 1/2

Installing : mdadm-4.1-1.el7.x86_64 2/2

Verifying : mdadm-4.1-1.el7.x86_64 1/2

Verifying : libreport-filesystem-2.1.11-43.el7.centos.x86_64 2/2


Installed:

mdadm.x86_64 0:4.1-1.el7


Dependency Installed:

libreport-filesystem.x86_64 0:2.1.11-43.el7.centos


Complete!


创建一个RAID 0设备:使用/dev/sdb和/dev/sdc做实验

将/dev/sdb和/dev/sdc建立RAID等级为RAID 0 的md 0(设备名)

[root@localhost ~]# mdadm -C -v /dev/md0 -l 0-n 2 /dev/sdb /dev/sdc

mdadm: invalid raid level: 0-n

[root@localhost ~]# mdadm -C -v /dev/md0 -l 0 -n 2 /dev/sdb /dev/sdc

mdadm: chunk size defaults to 512K

mdadm: partition table exists on /dev/sdb

mdadm: partition table exists on /dev/sdb but will be lost or

meaningless after creating array

mdadm: partition table exists on /dev/sdc

mdadm: partition table exists on /dev/sdc but will be lost or

meaningless after creating array

Continue creating array? yes

mdadm: Fail create md0 when using /sys/module/md_mod/parameters/new_array

mdadm: Defaulting to version 1.2 metadata

mdadm: array /dev/md0 started.

命令解析:

-C v:创建设备,并显示信息

-l 0:RAID的等级为RAID 0

-n 2:创建RAID的设备为2块。


查看系统上的RAID,命令及返回结果如下。

[root@localhost ~]# cat /proc/mdstat

Personalities : [raid0]

md0 : active raid0 sdc[1] sdb[0]

41908224 blocks super 1.2 512k chunks


unused devices:


查看RAID详细信息,命令及返回结果如下。

20200615180711612.png

20200615181038780.png

生成配置文件mdadm.conf,命令如下。

[root@localhost ~]# mdadm -Ds > /etc/mdadm.conf


对创建的RAID进行文件系统创建并挂载,命令如下。

20200615181242158.png

20200615181417915.png


设置成开机自动挂载,命令如下。

[root@localhost ~]# blkid /dev/md0

/dev/md0: UUID=“a09a1e06-f7af-4a7c-981d-d4f5d248235d” TYPE=“xfs”

[root@localhost ~]# echo “UUID=a09a1e06-f7af-4a7c-981d-d4f5d248235d /raid0/ xfs defaults 0 0” >> /etc/fstab


删除RAID操作步骤,命令如下:

[root@localhost ~]# umount /raid0/

[root@localhost ~]# mdadm -S /dev/md0

mdadm: stopped /dev/md0

[root@localhost ~]# rm -rf /etc/mdadm.conf

[root@localhost ~]# rm -rf /raid0/

[root@localhost ~]# mdadm --zero-superblock /dev/sdb

[root@localhost ~]# mdadm --zero-superblock /dev/sdc

[root@localhost ~]# vi /etc/fstab

UUID=a09a1e06-f7af-4a7c-981d-d4f5d248235d /raid0/ xfs defaults 0 0 //删除此行即可。


2、运维操作

(1)RAID 5运维操作。利用磁盘分区新建4个磁盘分区,每个大小为20GB.用3个20GB的分区来模拟RAID 5,加一个热备盘。

20200615182756633.png

20200615182732581.png

20200615182810664.png

查看RAID的详细信息,命令如下。

20200615182900652.png

(2)模拟硬盘故障。

20200615183145670.png

查看RAID的详细信息,命令如下。

20200615183235529.png

从上述结果可以发现,原来的热备盘/dev/sde正在参与RAID 5的重建,而原来的/dev/sdb变成了坏盘。

热移除故障盘,命令如下。

20200615183531782.png

查看RAID的详细信息,命令如下:

20200615183628649.png

格式化RAID并进行挂载、查看,命令如下。

20200615183856795.png

相关文章
|
2月前
|
Oracle 关系型数据库 数据挖掘
服务器数据恢复—服务器RAID5磁盘阵列数据恢复案例
服务器数据恢复环境: 一台服务器上有一组由5块硬盘(4块数据盘+1块热备盘)组建的raid5阵列。服务器安装Linux Redhat操作系统,运行一套基于oracle数据库的OA系统。 服务器故障: 这组raid5阵列中一块磁盘离线,但是热备盘并没有自动激活rebuild,当另外一块数据盘发生故障离线后,raid崩溃。 用户方要求恢复raid数据,同时要求还原操作系统。经过初步观察,raid中的这些硬盘没有表现出存在明显的物理故障的特征,也没有明显的同步表现,数据恢复的可能性很大。
|
2月前
|
存储 数据挖掘 虚拟化
服务器数据恢复—Raid5阵列两块硬盘硬件故障掉线的数据恢复案例
服务器数据恢复环境: 一台某品牌存储设备上有一组由10块硬盘(9块数据盘+1块热备盘)组建的raid5阵列,上层部署vmware exsi虚拟化平台。 服务器故障: raid5阵列中两块硬盘对应的指示灯亮黄灯掉线。硬盘序列号无法读取,通过SAS扩展卡也无法读取。
|
2月前
|
存储
服务器数据恢复—EMC存储RAID5阵列崩溃的数据恢复案例
服务器数据恢复环境: 一台EMC某型号存储设备,该存储中有一组由12块(包括2块热备盘)STAT硬盘组建的raid5阵列。 服务器故障: 该存储在运行过程中突然崩溃,raid瘫痪。数据恢复工程师到达现场对故障存储设备进行初检,发现raid中有两块硬盘掉线但只有一块热备盘成功激活,所以导致阵列瘫痪,上层lun无法使用。
|
11天前
|
安全 数据挖掘
服务器数据恢复—RAID5阵列中两块硬盘离线导致阵列崩溃的数据恢复案例
服务器数据恢复环境: 两组分别由4块SAS接口硬盘组建的raid5阵列,两组raid5阵列划分LUN并由LVM管理,格式化为EXT3文件系统。 服务器故障: RAID5阵列中一块硬盘未知原因离线,热备盘自动激活上线替换离线硬盘。在热备盘上线过程中,raid5阵列中又有一块硬盘离线。热备盘同步失败,该raid阵列崩溃,LVM结构变得不完整,文件系统无法正常使用。
|
1月前
|
存储 Oracle 关系型数据库
服务器数据恢复—DS5300存储raid5阵列数据恢复案例
服务器存储数据恢复环境: 某单位一台某品牌型号为DS5300的服务器存储,1个机头+4个扩展柜,底层是2组分别由数十块硬盘组建的RAID5阵列。存储系统上层一共分了11个卷。 服务器存储故障&分析: 存储设备上一组raid5阵列上的2块磁盘出现故障,对应的硬盘指示灯亮黄灯,阵列崩溃,存储不可用。该组故障阵列上层存放的是Oracle数据库文件。
|
23天前
|
存储 运维 算法
服务器数据恢复—raid6阵列硬盘重组raid5阵列如何恢复raid6阵列数据?
服务器存储数据恢复环境: 存储中有一组由12块硬盘组建的RAID6阵列,上层linux操作系统+EXT3文件系统,该存储划分3个LUN。 服务器存储故障&分析: 存储中RAID6阵列不可用。为了抢救数据,运维人员使用原始RAID中的部分硬盘重新组建RAID并进行了初始化。 初始化开始一段时间后,运维人员察觉到情况有异后强制终止初始化,这个时候初始化已经完成一半以上。数据部分已被不可逆的破坏。
|
1月前
|
存储 数据挖掘
服务器数据恢复—EqualLogic存储raid5阵列多块硬盘掉线的数据恢复案例
服务器存储数据恢复环境: 一台EqualLogic存储中有一组由16块SAS硬盘组建的RAID5阵列。上层划分了4个卷,采用VMFS文件系统,存放虚拟机文件。 服务器存储故障: 存储RAID5阵列中磁盘出现故障,有2块硬盘对应的指示灯亮黄灯,存储不可用,且存储设备已经过保。
|
1月前
|
存储 关系型数据库 MySQL
查询服务器CPU、内存、磁盘、网络IO、队列、数据库占用空间等等信息
查询服务器CPU、内存、磁盘、网络IO、队列、数据库占用空间等等信息
603 2
|
27天前
|
存储 运维 Oracle
服务器数据恢复—raid5阵列+vxfs文件系统数据恢复案例
服务器存储数据恢复环境: 某品牌MSA2000FC存储中有一组由7块盘组建的RAID5阵列,另外还有1块硬盘作为热备盘使用。 基于RAID5阵列划分的几个LUN分配给小机使用,存储空间通过LVM管理,重要数据为Oracle数据库及OA服务端。 服务器存储故障: RAID5阵列中2块硬盘离线,唯一的热备盘成功激活,RAID5阵列还是变得不可用,上层LUN无法使用。
|
2月前
|
存储 数据挖掘
服务器数据恢复—用RAID5阵列中部分盘重建RAID5如何恢复原raid5阵列数据?
服务器数据恢复环境: 一台服务器挂接一台存储,该存储中有一组由5块硬盘组建的RAID5阵列。 服务器故障: 存储raid5阵列中有一块硬盘掉线。由于RAID5的特性,阵列并没有出现问题。工作一段时间后,服务器出现故障,用户方请人维修。维修人员在没有了解故障磁盘阵列环境的情况下,用另外4块硬盘(除去掉线的硬盘)重新创建了一组全新的RAID5阵列并完成数据同步,导致原raid5阵列数据全部丢失。