Netapp数据恢复—解锁NetApp数据恢复密码:误删卷场景的实操技巧与经验总结

简介: NetApp存储数据恢复环境:NetApp某型号存储存储上有96块SAS接口硬盘,硬盘扇区大小是520字节。所有lun映射到小型机使用,存放Oracle数据库文件,采用ASM裸设备存储方式。NetApp存储故障:工作人员误操作删除了存储上的所有lun。沟通后得知:由于业务变化,需要重新规划空间,工作人员将存储卷全部删除并重新分配。删除卷但还没有分配的时候,上层业务宕机。运维工程师紧急排查故障情况,发现业务服务器上的磁盘都看不见了,无法访问数据。

NetApp存储数据恢复环境:
NetApp某型号存储存储上有96块SAS接口硬盘,硬盘扇区大小是520字节。所有lun映射到小型机使用,存放Oracle数据库文件,采用ASM裸设备存储方式。

NetApp存储故障:
工作人员误操作删除了存储上的所有lun。沟通后得知:由于业务变化,需要重新规划空间,工作人员将存储卷全部删除并重新分配。删除卷但还没有分配的时候,上层业务宕机。运维工程师紧急排查故障情况,发现业务服务器上的磁盘都看不见了,无法访问数据。

NetApp存储数据恢复过程:
1、将NetApp存储上的每块磁盘以只读方式做完整镜像。后续所有恢复操作都在镜像文件上进行,避免对原始磁盘数据造成二次破坏。
2、分析Netapp存储的存储过程。
a、分析盘序和LVM的组成方式。
b、扫描硬盘内的所有节点。
c、在扫描结果中找到文件大小符合需求的节点并提取此节点。
d、根据索引根内的第一级数据指针提取本文件的所有直接数据指针,在指针提取完毕后开始提取文件数据。
3、在硬盘前面扇区的位置找到超级块相关信息,从超级块中得到相应信息。
netapp超级块:
1副本.jpg

4、根据数据块描述信息判断出哪些磁盘是校验盘(提取数据时校验盘需剔除)。
校验块描述信息样例:
2副本.jpg

5、依据每块磁盘的磁盘信息以及磁盘的RAID盘序表确定盘序。确定各个磁盘所属aggr组,判断组内盘序,获取到数据盘的盘序。
netapp盘序表:
3副本.jpg

6、分析节点及节点头部信息。
Netapp的节点分布在数量众多的数据块内,在数据块内的节点又被统一组织为节点组。每个节点组的部分字节记录一些系统数据;部分字节为一项,记录各个文件节点。根据用户级别可分为系统文件节点和用户文件节点。
netapp节点样例图:
4副本.jpg

7、获取目录项,并根据其节点编号,找到对应节点。
目录项信息:
5副本.jpg

8、分析好存储结构之后,使用北亚企安自主开发的NetApp解析程序提取数据, 解析asm文件系统,提取出数据库文件。
6副本.jpg

9、搭建小机环境,安装oracle数据库,检测数据库文件和备份文件。
a、使用提取出的数据库文件可以正常启动数据库。
b、筛选出最新的数据库备份文件,使用筛选出的备份文件还原数据库。经过一一尝试,筛选出最新的可用的数据库备份,还原数据库环境。
10、用户方工程师验证后确认数据完整有效,本次数据恢复工作完成。

相关文章
|
SQL 存储 数据采集
【技术分享】元数据与数据血缘实现思路
【技术分享】元数据与数据血缘实现思路
7083 0
|
2月前
|
数据采集 存储 数据管理
元数据管理是什么?怎么管?
元数据管理是让数据成为真正资产的关键。它通过统一管理“关于数据的数据”,解决找数难、口径不一、追溯困难等问题,建立业务与技术间的共识,实现数据可发现、可理解、可信任,推动企业数据驱动落地。
|
4月前
|
数据采集 SQL 分布式计算
数据清洗,必须掌握的5大解决方案+4大步骤
数据模型出错、报表对不上?根源常在于数据清洗。本文系统解析数据清洗的应用场景、核心步骤与常见痛点,并介绍如何通过FineDataLink等工具实现高效自动化清洗,将杂乱原始数据转化为高质量分析基石,提升数据可靠性与分析效率。
数据清洗,必须掌握的5大解决方案+4大步骤
|
7月前
|
Go 开发者
Go 并发编程基础:无缓冲与有缓冲通道
本章深入探讨Go语言中通道(Channel)的两种类型:无缓冲通道与有缓冲通道。无缓冲通道要求发送和接收必须同步配对,适用于精确同步和信号通知;有缓冲通道通过内部队列实现异步通信,适合高吞吐量和生产者-消费者模型。文章通过示例对比两者的行为差异,并分析死锁风险及使用原则,帮助开发者根据场景选择合适的通道类型以实现高效并发编程。
|
11月前
|
人工智能 自然语言处理 数据挖掘
轻松上手,性能爆表:零门槛体验DeepSeek-R1满血版评测
DeepSeek-R1满血版是一款真正实现“零门槛”的高性能AI设备,以其卓越的性能和易用性打破了技术壁垒。用户可通过阿里云百炼模型服务轻松配置部署,支持文本生成、代码编写、数据分析等多任务,响应迅速,硬件要求低,适合非技术背景用户提升效率。测评显示其在数学、代码和推理任务上表现出色,成本优势明显,性价比极高。推荐指数:★★★★★。 核心亮点包括零学习成本、一键部署、中文交互友好、预训练模型优化及私有化部署保障数据隐私。总体而言,DeepSeek-R1满血版实现了开箱即用的AI体验,尤其适合新手或追求高性价比的用户。
1167 5
|
10月前
|
SQL Oracle 关系型数据库
|
分布式计算 API Apache
Dask与Apache Spark的对比
【8月更文挑战第10天】随着数据量激增,高效处理成为关键。本文对比了Python领域的两大工具——Dask与Apache Spark。Dask提供类似NumPy和Pandas的API,适用于中小规模数据;而Spark作为内存型处理引擎,擅长超大规模数据处理。我们通过代码实例展示了两者的使用方式,并分析了它们在性能、API及生态系统方面的异同。无论您追求易用性还是高性能,都能从中找到合适的选择。
|
负载均衡 Dubbo Java
Dubbo服务Spi机制和原理
该文章主要介绍了Dubbo中的SPI(Service Provider Interface)机制和原理,包括SPI的基本概念、Dubbo中的SPI分类以及SPI机制的实现细节。
Dubbo服务Spi机制和原理
|
安全 生物认证 网络安全
信息打点-红蓝队自动化项目&资产侦察&武器库部署&企查产权&网络空间
信息打点-红蓝队自动化项目&资产侦察&武器库部署&企查产权&网络空间
477 0
|
运维 监控 持续交付
运维即代码(Operations as Code,简称 OaC)
运维即代码(Operations as Code,简称 OaC)是一种理念,它将运维任务和流程通过代码的形式进行自动化和标准化。这种方法可以帮助企业降低运维成本,提高运维效率,并确保运维任务的可靠性和一致性。
426 1

热门文章

最新文章