raid数据恢复及回迁成功案例—北亚推荐

简介:
+关注继续查看
故障发生在两块盘组成的一个raid0上,其中的一块盘亮黄灯,被raid卡踢出后,raid崩溃,下面就把当时抢救数据的整个过程进行介绍。
由于硬盘是两块SAS 300G的硬盘,先把硬盘从机器中拔出来,然后通过SAS HBA的方式直连到win的环境下,并在磁盘管理中将硬盘标记为脱机状态,以保证操作过程中是只读的,保护原始数据的安全。

在将两个硬盘底层所有扇区都镜像出来后,通过文件系统分析盘序和条带大小,使用软件虚拟重组的方式将原始raid环境搭起来后,再进一步解析ntfs文件系统后终于看到了数据,这时候新的问题出现了,如果直接把数据拷贝出来,那么原始的系统和应用都需要重新部署,而且因为没有了软件服务商的支持,实施起来有一定的难度,于是想着把搭起来的raid再完整的迁移到新的raid环境中,就可以做到和损坏前一样。这样一来就可以节省大量时间。
由于有了前车之鉴,所以在新的raid环境上吸取了上次的教训,决定使用三块盘组建raid5,即使有一块硬盘出现故障离线,raid也可以处于降级状态,不会立刻崩溃,给了使用者替换新硬盘的机会。
在安装了支持raid5的新raid卡和插了新硬盘后创建了一个raid5的卷,现在开始研究怎么把做出来的数据迁移过去
因为服务器前面板由raid卡来管理,所以直接插个新盘上去是不会在系统下直接识别的,需要在raid卡下创建raid后才可以使用,而且限于单盘容量的问题,不能采用这个方案,于是研究别的办法。因为服务器前面板有个DVD光驱,而且现在的服务器光驱和主板都是采用sata通道连接,所以可以把机盖打开使用上面的sata口,连接一块sata硬盘,在pe或者linux live cd模式下就可以回迁数据了,而且这是速度最快的方法。但是在我们准备实施的时候发现这个机器使用的sata不是标准大小接口类型,而是mini sata,因为手里没有现成的转接卡,所以这个办法也不行,其实在数据量不大的时候也可以使用USB方式去做,但是因为现在绝大部分服务器的usb还停留在USB2.0 速度太慢,对于大数据量,时间上不可接受。
最后的最后我们绝对使用一种新奇的办法回迁数据----走网络。
这时候需要先启动个linux live cd 一般我们都使用linux system rescue cd,在linux启动完成后ifconfig配置下服务器的ip,然后我们将做出来的数据放在一个win 2008 r2的机器上,在win环境下开启nfs服务(默认是关闭的)“服务管理器--角色--添加角色--勾选文件服务—勾选网络文件系统服务进行安装,第一次安装完成之后需要重启一下计算机”
1

重启完成后我们对存放镜像数据的文件夹进行操作,右键—NFS共享标签页里面勾选共享此文件夹,然后有个重点是在权限里面勾选允许根目录访问,访问类型选择读写。
2

Win端的设置完成后,我们再看下linux端的设置,ifconfig查看当前网络配置
3

因为我们需要分配个ip给他,在这里我们分配网卡“enp4s0”,ip地址分配成10.3.12.3 子网掩码为255.0.0.0,使用如下命令:ifconfig enp4s0 10.3.12.3 255.0.0.0 然后再使用ifconfig查看ip地址
4

配置好ip之后,查看一下网络是否连同,命令:ping 10.1.1.1 ,
  再查看10.1.1.1机器上的NFS共享的目录是否能够访问,命令:showmount –e 10.1.1.1,
5

源机器和目标机器现在已经连接通,在linux创建一个目录mkdir /mnt/bysjhf
  创建好之后,我们将镜像出来的数据挂载到linux下新创建的文件夹下mount 10.1.1.1:/data /mnt/bysjhf –o nolock
  挂载好之后,查看一下挂载点信息df –k
6

确定已经挂载好之后,进入这个文件夹,查看一下文件夹里的镜像文件:
  root@sysresccd /mnt/bysjhf % ls
  并查看硬盘及分区信息:fdisk –l
7
8

确认好源设备和目标设备之后,进行镜像操作:
  dd if=/mnt/bysjhf/data.img of=/dev/sda bs=10M
9

 在千兆网环境下NFS的速度能够跑到70M/S,这已经是一个很理想的速度,在等待dd完成后,我们重启ibm X3650服务器,并选择raid引导,期待的windows启动页面终于出现了,前面的辛苦没有白费,数据完整的迁移成功。

相关文章
|
8天前
|
存储 数据挖掘
服务器数据恢复—EMC存储raid5阵列瘫痪的数据恢复案例
服务器存储数据恢复环境: EMC某型号存储,8块组建一组raid5磁盘阵列。上层操作系统采用zfs文件系统。 服务器存储故障&分析: raid5阵列中有2块硬盘未知原因离线,raid5阵列崩溃,上层应用无法正常使用。
服务器数据恢复—EMC存储raid5阵列瘫痪的数据恢复案例
|
8天前
|
存储 数据挖掘 Windows
服务器数据恢复—V7000存储raid5数据恢复案例
服务器数据恢复环境: 某品牌V7000存储中有一组由几十块硬盘组建的raid5阵列。上层操作系统为windows server,NTFS分区。 服务器故障: 有一块硬盘出现故障离线,热备盘自动上线替换离线硬盘。在热备盘上线同步数据的过程,与离线盘同一组Mdisk中又有另一块磁盘出现故障离线。热备盘同步失败,该组Mdisk失效,通用卷无法使用。
|
18天前
|
存储 Linux 数据库
服务器数据恢复—IBM存储raid5多盘损坏导致阵列崩溃的数据恢复案例
服务器数据恢复环境: IBM某型号存储,6块sas硬盘组建一组raid5,划分一个lun分配给Linux服务器并格式化为OCFS2文件系统,共享给虚拟化使用,存放的数据包括24台liunx和windows虚拟机、压缩包文件和配置文件。 服务器故障: raid5阵列中成员盘坏了多块,阵列失效,数据丢失。
服务器数据恢复—IBM存储raid5多盘损坏导致阵列崩溃的数据恢复案例
|
26天前
|
存储 运维 数据挖掘
服务器数据恢复—服务器磁盘阵列硬盘出现坏道掉线的数据恢复案例
服务器数据恢复环境: 某品牌服务器中有一组16块SAS接口硬盘组建的raid5磁盘阵列。 服务器故障&检测: 服务器raid5阵列中有2块硬盘掉线,上层服务器应用崩溃,导致服务器数据丢失。丢失的数据主要是4个1.5TB大小的卷中的数据,文件类型为虚拟机文件。
服务器数据恢复—服务器磁盘阵列硬盘出现坏道掉线的数据恢复案例
|
2月前
|
存储 固态存储 数据安全/隐私保护
北亚企安数据恢复-VSAN数据恢复方案
存储介质清单 :一共8台服务器节点,每节点2个磁盘组,其中1个磁盘组配置1块SSD固态硬盘,4块1.2T机械硬盘;另一个磁盘组配置1块SSD固态硬盘,4块2T机械硬盘。共计16块SSD固态硬盘和64块机械硬盘。 故障描述:一个节点服务器掉线,导致部分虚拟机无法访问。 期望恢复数据:恢复VSAN环境中故障虚拟磁盘数据。
|
2月前
|
数据挖掘
服务器数据恢复-服务器raid0数据恢复案例
服务器故障&分析: 某公司一台服务器,共2块磁盘组建了一组raid0磁盘阵列。RAID0阵列中有1块硬盘出现故障离线,导致服务器崩溃。 通过和用户方的沟通,北亚企安数据恢复工程师初步判断:故障服务器中出现故障离线的硬盘在出厂时存在物理缺陷,经过长时间的运行后,这块硬盘非正常老化,加上外力磕碰等情况导致磁头损坏,硬盘掉线。 服务器采用的是raid0磁盘阵列,一块硬盘掉线就会导致服务器崩溃。要恢复服务器数据,物理修复掉线硬盘是关键。
|
2月前
|
Oracle 关系型数据库 数据挖掘
服务器数据恢复-RAID卡上RAID信息丢失的服务器数据恢复案例
服务器数据恢复环境: 一台服务器,8块硬盘组建了一组raid5磁盘阵列,服务器安装的是windows server操作系统,上层部署ORACLE数据库。 服务器故障: 在服务器运行过程中,2块硬盘报警,服务器操作系统和ORACLE数据库都无法启动。 RAID5可以允许一块硬盘离线,如果有2块硬盘离线就会导致阵列崩溃。和用户方沟通后确认该RAID5阵列中没有第二块硬盘离线,北亚企安数据恢复工程师初步判断RAID卡上的RAID信息可能已经丢失或破坏。
|
2月前
|
运维
服务器数据恢复-RAID5常见故障&raid5数据恢复方案
raid5阵列常见故障: 1、服务器硬件故障或者RAID阵列卡故障; 2、服务器意外断电导致的磁盘阵列故障; 3、服务器RAID阵列阵列磁盘出现物理故障,如:电路板坏、磁头损坏、盘面划伤、坏扇区、固件坏等; 4、误操作导致磁盘盘序出现错误; 5、raid在同步数据或者重建过程中,同组raid阵列中又有其他硬盘掉线导致同步失败。