【VSAN数据恢复】VSAN集群节点数据迁移失败的数据恢复案例

本文涉及的产品
无影云电脑企业版,4核8GB 120小时 1个月
无影云电脑个人版,1个月黄金款+200核时
资源编排,不限时长
简介: VSAN存储是一个对象存储,以文件系统呈现给在vSphere主机上。这个对象存储服务会从VSAN集群中的每台主机上加载卷,将卷展现为单一的、在所有节点上都可见的分布式共享数据存储。对于虚拟机来说,只有一个数据存储,这个分布式数据存储来自VSAN集群中每一台vSphere主机上的存储空间,通过磁盘组进行配置,在单独的存储中存放所有的虚拟机文件。这种数据存储方式比较安全,当闪存盘或者容量盘出现故障的时候,数据会向其他节点转移,在转移过程中有可能出现故障。

VSAN简介:
VSAN存储是一个对象存储,以文件系统呈现给在vSphere主机上。这个对象存储服务会从VSAN集群中的每台主机上加载卷,将卷展现为单一的、在所有节点上都可见的分布式共享数据存储。
对于虚拟机来说,只有一个数据存储,这个分布式数据存储来自VSAN集群中每一台vSphere主机上的存储空间,通过磁盘组进行配置,在单独的存储中存放所有的虚拟机文件。这种数据存储方式比较安全,当闪存盘或者容量盘出现故障的时候,数据会向其他节点转移,在转移过程中有可能出现故障。

VSAN数据恢复环境&故障:
4台服务器节点组建的VSAN集群,每台服务器节点上有两个磁盘组,每个磁盘组由一个SSD硬盘(闪存盘)带数块SAS硬盘(容量盘)。
VSAN集群中一个服务器节点上的一个磁盘组中的容量盘出现故障离线,VSAN进行数据重构迁移,在数据转移过程中机房突然停电,数据迁移中断没有完成。恢复通电后,该节点上另外一个磁盘组中又有2块容量盘离线,整个存储出现故障。虽然VSAN管理控制台可以登录,但是所有虚拟机都无法访问。

VSAN数据恢复过程:
1、将四个服务器节点上所有硬盘编号后取出,由硬件工程师对所有磁盘进行硬件故障检测,经过检测没有发现有磁盘存在硬件故障。将所有磁盘以只读模式进行全盘镜像,镜像完成后将所有磁盘按照编号还原到原服务器中,后续的数据分析和数据恢复操作都基于镜像文件进行,避免对原始磁盘数据造成二次破坏。
2、基于镜像文件分析底层数据,分析VSAN存储结构,获取虚拟机所在硬盘的分布信息。北亚企安数据恢复工程师通过分析出来的数据存储结构开发程序测试数据分布信息的准确性。
3、单独分析每个服务器节点上的两个磁盘组,弄清楚磁盘组内闪存盘和容量盘之间的对应关系。每块硬盘都有一个唯一标识进行磁盘间的对应,根据硬盘的ID信息来判读磁盘组中硬盘ID信息。
4、在每块硬盘上获取磁盘的UUID和磁盘组的UUID。
5、根据每个磁盘组中的容量盘组件信息获取此容量盘组件信息。
6、根据容量盘组件信息中记录的组件的MAP位置提取组件位图。
7、根据组件位图提取组件数据和缓存数据。
8、根据组件的描述信息获取组件所属对象及组件顺序,并把组件合并成对象。
9、根据对象提取数据。
10、数据提取完成后对恢复出来的数据进行检测。经过检测,所有恢复出来的虚拟机都可以正常启动。用户方认可本次数据恢复结果。本次VSAN数据恢复工作结束。

VSAN数据恢复总结:
VSAN对象可以看成一个卷,也可以理解成是一个逻辑卷,每个存在于数据存储上的VSAN对象都是由多个组件构成,这些组件分布于集群主机上的磁盘组中。在恢复vsan数据的过程中,获取组件信息是最关键的,因为组件是每个对象的重要组成部分。

相关文章
|
4月前
|
存储 运维 Python
基于 ChunkServer 的数据备份与恢复方案
【8月更文第30天】在分布式文件系统中,数据的安全性和持久性是至关重要的。为了应对可能发生的硬件故障、网络中断等问题,需要有一套完善的备份与恢复方案。本文将详细介绍如何设计和实现一套基于 ChunkServer 的数据备份与恢复流程,确保数据的完整性和持久性。
59 0
|
7月前
|
存储 缓存 固态存储
【vsan数据恢复】vsan分布式存储架构数据恢复案例
VSAN数据恢复环境: 一套有三台服务器节点的VSAN超融合基础架构,每台服务器节点上配置2块SSD硬盘和4块机械硬盘。 每个服务器节点上配置有两个磁盘组,每个磁盘组使用1个SSD硬盘作为缓存盘,2个机械硬盘作为容量盘。三台服务器节点上共配置6个磁盘组,共同组成VSAN存储空间,存放虚拟机文件。 需要恢复服务器节点上的数据库数据。 VSAN故障: 非正常关机导致VSAN逻辑架构出现故障,部分虚拟机磁盘组件出现问题,磁盘文件丢失。
|
7月前
|
运维 安全 数据挖掘
【服务器数据恢复】硬盘离线导致Raid5热备盘上线同步失败的数据恢复案例
**服务器数据恢复环境:** 两组由4块磁盘组建的raid5磁盘阵列,两组raid5阵列划分为lun并组成了lvm结构,ext3文件系统。 **服务器故障:** 一组raid5阵列中的一块硬盘离线,热备盘自动上线并开始同步数据。在热备盘完成同步之前,该组raid5阵列中另一块硬盘离线,热备盘同步失败,该组raid5阵列崩溃无法使用,lvm结构被破坏,ext3文件系统无法正常使用了。
|
容灾 关系型数据库 数据库
将旧集群的数据备份迁移到新集群。
将旧集群的数据备份迁移到新集群。
147 1
|
2天前
|
存储 数据挖掘
服务器数据恢复—V7000存储上多块Mdisk成员盘出现故障的数据恢复案例
服务器存储数据恢复环境: 一台V7000存储上共12块SAS机械硬盘(其中1块是热备盘),组建了2组Mdisk,创建了一个pool。挂载在小型机上作为逻辑盘使用,小型机上安装的AIX+Sybase。 服务器存储故障: V7000存储中磁盘出现故障,管理员发现问题后立即更换磁盘。新更换的硬盘在上线同步数据的时候,存储上另一块磁盘也出现问题,导致逻辑盘无法挂接在小型机上,业务暂时中断。V7000存储的管理界面上显示两块硬盘故障脱机。 pool无法加载,其中三个通用卷均无法挂载。
|
20天前
|
数据挖掘 Linux Windows
服务器数据恢复—服务器raid0数据恢复及数据迁移的案例
某品牌服务器上有一组由两块SAS硬盘组建的raid0阵列,上层是windows server操作系统+ntfs文件系统。服务器上一个硬盘指示灯显示黄颜色,该指示灯对应的硬盘离线,raid不可用。
|
23天前
|
存储 Shell 数据库
某客户多节点磁盘故障集群恢复
gbase 数据 某客户多节点磁盘故障集群恢复
|
5月前
|
存储 SQL 运维
服务器数据恢复—Isilon存储误删除vmware虚拟机的数据恢复案例
Isilon存储使用的是分布式文件系统OneFS。在Isilon存储集群里面每个节点均为单一的OneFS文件系统,所以Isilon存储在进行横向扩展的同时不会影响数据的正常使用。Isilon存储集群所有节点提供相同的功能,节点与节点之间没有主备之分。当用户向Isilon存储集群中存储文件时,OneFS文件系统层面将文件划分为128K的片段分别存放到不同的节点中,而节点层面将128K的片段分成8K的小片段分别存放到节点的不同硬盘中。用户文件的Indoe信息、目录项及数据MAP则会分别存储在所有节点中,这样可以确保用户不管从哪个节点都可以访问到所有数据。Isilon存储在初始化时会让用户选择相应的
78 12
|
5月前
|
存储 运维 Oracle
服务器数据恢复—DS4700存储中raid出现故障的数据恢复案例
一台某品牌DS4700存储中有14块硬盘组建raid,存放的是oracle数据库。存储中有两块硬盘的指示灯亮黄色,raid崩溃,卷无法挂载,业务全部瘫痪。
|
7月前
|
存储 Oracle 关系型数据库
【数据库数据恢复】Oracle数据库ASM磁盘组掉线的数据恢复案例
oracle数据库ASM磁盘组掉线,ASM实例不能挂载。数据库管理员尝试修复数据库,但是没有成功。
【数据库数据恢复】Oracle数据库ASM磁盘组掉线的数据恢复案例
下一篇
DataWorks