服务器数据恢复—服务器raid0数据恢复及数据迁移的案例

简介: 某品牌服务器上有一组由两块SAS硬盘组建的raid0阵列,上层是windows server操作系统+ntfs文件系统。服务器上一个硬盘指示灯显示黄颜色,该指示灯对应的硬盘离线,raid不可用。

服务器数据恢复环境&故障情况:
某品牌服务器上有一组由两块SAS硬盘组建的raid0阵列,上层是windows server操作系统+ntfs文件系统。服务器上一个硬盘指示灯显示黄颜色,该指示灯对应的硬盘离线,raid不可用。

服务器数据恢复过程:
1、将故障服务器中所有硬盘做好标记后从槽位中取出,经过硬件工程师检测后,没有发现有硬盘存在硬件故障。以只读方式将所有硬盘进行扇区级全盘镜像,镜像完成后,将硬盘按照原样还原到原服务器中。后续的数据分析和数据恢复操作都基于镜像文件进行,避免对原始磁盘数据造成二次破坏。
2、基于镜像文件分析所有磁盘底层数据,获取到重组raid所需信息(RAID级别,盘序、条带规则,条带大小,校验方向,META区域等)。利用获取到的raid相关信息将原始raid重组出来。
3、解析ntfs文件系统,这个时候已经可以看到数据了。

服务器数据迁移:
方案一:
直接将数据拷贝出来,原始的系统和应用都需要重新部署,由于软件服务商不再支持应用,实施起来非常困难。
方案二:
将raid重新搭建起来后再迁移到新的raid环境中。这样就可以做到和发生故障前一样。
用户方为了避免重蹈覆辙,这次使用三块磁盘组建raid5阵列。以后即使有一块盘出现问题离线,raid不会立刻崩溃,替换新硬盘后还能恢复原状。
安装支持raid5的raid卡并插上一个新的硬盘,创建一个raid5的卷。
本案例中的服务器前面板是由raid卡管理的。直接插一个新盘上去,在系统中是不会被识别出来的,而是需要在raid卡下创建raid后才可以使用。由于单盘容量的问题,还无法采用这个方案,只能采用别的办法。
服务器前面板有个DVD光驱,且光驱和主板是采用sata通道连接。打开服务器前面板的盖板,使用sata口连接一块sata硬盘,在pe或者linux live cd模式下回迁数据。在实施的时候发现该服务器使用的sata不是标准大小接口,而是mini sata,因为当前没有转接卡,这个办法也不行,
如果数据量不大,可以通过USB回迁数据。对于数据量大的情况,时间上不允许。
最终,北亚企安数据恢复工程师决定通过网络迁移数据。
1、启动linux live cd。本案例使用linux system rescue cd。linux启动后使用ifconfig命令配置服务器的ip,然后将恢复出来的数据放在一个安装windows系统的机器上。
在win环境下开启nfs服务(默认是关闭的):服务管理器--角色--添加角色--勾选文件服务—勾选网络文件系统服务进行安装,第一次安装完成之后需要重启一下计算机。
1副本.jpg

2、重启完成后对存放镜像数据的文件夹进行操作,右键—NFS共享标签页里面勾选共享此文件夹,在权限里面勾选允许根目录访问,访问类型选择读写。
2副本.jpg

3、Win端的设置完成后在linux端进行设置。ifconfig查看当前网络配置。
3副本.jpg

分配网卡“enp4s0”, ip地址为10.3.12.3,子网掩码为255.0.0.0。命令:ifconfig enp4s0 10.3.12.3 255.0.0.0
4副本.jpg

配置好ip之后,查看一下网络是否连通,命令:ping 10.1.1.1
查看10.1.1.1机器上的NFS共享的目录是否能够访问,命令:showmount –e 10.1.1.1
5副本.jpg

确认源机器和目标机器连通之后,在linux系统上创建一个目录:mkdir /mnt/bysjhf
目录创建好后,将镜像出来的数据挂载到linux下新创建的文件夹下,命令:mount 10.1.1.1:/data /mnt/bysjhf –o nolock
挂载好后查看一下挂载点信息,命令:df –k
6副本.jpg

挂载好后进入这个文件夹,查看一下文件夹里的镜像文件,硬盘及分区信息。
7副本.jpg
8副本.jpg

确认好源设备和目标设备之后,开始镜像操作,命令:dd if=/mnt/bysjhf/data.img of=/dev/sda bs=10M
9副本.jpg

在万兆网环境下NFS的速度很快。dd完成后重启服务器,并选择raid引导,成功进入windows server操作系统。经过用户方的检测,确认系统、应用和数据都没有问题。数据完整的迁移成功。

相关文章
|
7月前
|
运维 安全 数据挖掘
【服务器数据恢复】硬盘离线导致Raid5热备盘上线同步失败的数据恢复案例
**服务器数据恢复环境:** 两组由4块磁盘组建的raid5磁盘阵列,两组raid5阵列划分为lun并组成了lvm结构,ext3文件系统。 **服务器故障:** 一组raid5阵列中的一块硬盘离线,热备盘自动上线并开始同步数据。在热备盘完成同步之前,该组raid5阵列中另一块硬盘离线,热备盘同步失败,该组raid5阵列崩溃无法使用,lvm结构被破坏,ext3文件系统无法正常使用了。
|
7月前
|
运维 算法 数据挖掘
服务器数据恢复-服务器raid6磁盘阵列数据恢复案例
服务器数据恢复环境: 服务器上有一组由12块硬盘组建的raid6磁盘阵列,raid6阵列上层有一个lun,映射到WINDOWS系统上使用,WINDOWS系统划分了一个GPT分区。 服务器故障&分析: 服务器在运行过程中突然无法访问。对服务器进行检测后,工作人员发现服务器raid6阵列中有3块磁盘处于离线状态,于是将这3块磁盘强制上线并进行rebuild操作,但是强制上线成功后分区打不开,数据无法访问。
|
数据挖掘
服务器数据恢复-服务器raid0数据恢复案例
服务器故障&分析: 某公司一台服务器,共2块磁盘组建了一组raid0磁盘阵列。RAID0阵列中有1块硬盘出现故障离线,导致服务器崩溃。 通过和用户方的沟通,北亚企安数据恢复工程师初步判断:故障服务器中出现故障离线的硬盘在出厂时存在物理缺陷,经过长时间的运行后,这块硬盘非正常老化,加上外力磕碰等情况导致磁头损坏,硬盘掉线。 服务器采用的是raid0磁盘阵列,一块硬盘掉线就会导致服务器崩溃。要恢复服务器数据,物理修复掉线硬盘是关键。
|
7月前
|
数据挖掘 Windows
【服务器数据恢复】服务器迁移数据时数据丢失的数据恢复案例
一台安装Windows操作系统的服务器。工作人员在迁移该服务器中数据时突然无法读取数据,服务器管理界面出现报错。经过检查发现服务器中一个lun的数据丢失。
|
4月前
|
存储 Linux
服务器数据恢复—服务器raid5磁盘阵列数据恢复案例
服务器数据恢复环境: 某品牌2850服务器上有一组由6块SCSI硬盘组建的raid5磁盘阵列,上层操作系统为Redhat linux+ext3文件系统。 服务器故障&初检: 服务器在运行过程中突然瘫痪,管理员对服务器中的raid进行检查后发现有两块硬盘离线。管理员对其中一块离线硬盘进行强制上线操作,但是强制上线操作完成后操作系统启动异常。管理员马上将服务器关机,联系我们数据恢复中心寻求帮助。
|
3月前
|
存储 数据挖掘 数据库
服务器数据恢复—raid磁盘故障导致数据库数据损坏的数据恢复案例
存储中有一组由3块SAS硬盘组建的raid。上层win server操作系统层面划分了3个分区,数据库存放在D分区,备份存放在E分区。 RAID中一块硬盘的指示灯亮红色,D分区无法识别;E分区可识别,但是拷贝文件报错。管理员重启服务器,导致离线的硬盘上线开始同步数据,同步还没有完成就直接强制关机了,之后就没有动过服务器。
|
5月前
|
存储 数据挖掘 Linux
服务器数据恢复—机房搬迁导致服务器无法识别raid的数据恢复案例
某单位机房搬迁,将所有服务器和存储搬迁到新机房并重新连接线路,启动所有机器发现其中有一台服务器无法识别RAID,提示未做初始化操作。 发生故障的这台服务器安装LINUX操作系统,配置了NFS+FTP作为单位内部的文件服务器使用。服务器为ProLiant DL380系列服务器,通过hp smart array控制器挂载了一组由14块SCSI硬盘组成的RAID5磁盘阵列。该raid5磁盘阵列采用双循环的校验方式。 北亚企安数据恢复工程师到达现场后对故障服务器进行了初检,经过检测发现raid信息丢失。
服务器数据恢复—机房搬迁导致服务器无法识别raid的数据恢复案例
|
4月前
|
存储 安全 数据安全/隐私保护
服务器数据恢复—服务器raid常见故障的数据恢复方案
磁盘阵列(raid)是一种将多块物理硬盘整合成一个虚拟存储的技术。raid模块相当于一个存储管理中间层,上层接收并执行操作系统及文件系统的数据读写指令,下层管理数据在各个物理硬盘上的存储及读写。相对于单独的物理硬盘,raid可以为用户提供更大的独立存储空间,更快的读写速度,更高的数据存储安全及更方便的统一管理模式。磁盘阵列的正常运行是保障服务器中数据正常读写的关键。
服务器数据恢复—服务器raid常见故障的数据恢复方案
|
4月前
|
存储 Oracle 安全
服务器数据恢复—Raid故障导致数据库数据丢失的数据恢复案例
一台光纤存储中有一组由16块硬盘组成的raid。 该存储出现故障导致数据丢失。RAID中2块盘掉线,还有1块盘smart状态为“警告”。
|
5月前
|
存储 SQL 运维
服务器数据恢复—Isilon存储误删除vmware虚拟机的数据恢复案例
Isilon存储使用的是分布式文件系统OneFS。在Isilon存储集群里面每个节点均为单一的OneFS文件系统,所以Isilon存储在进行横向扩展的同时不会影响数据的正常使用。Isilon存储集群所有节点提供相同的功能,节点与节点之间没有主备之分。当用户向Isilon存储集群中存储文件时,OneFS文件系统层面将文件划分为128K的片段分别存放到不同的节点中,而节点层面将128K的片段分成8K的小片段分别存放到节点的不同硬盘中。用户文件的Indoe信息、目录项及数据MAP则会分别存储在所有节点中,这样可以确保用户不管从哪个节点都可以访问到所有数据。Isilon存储在初始化时会让用户选择相应的
74 12