SUN平台,光纤共享存储互斥失败导致的数据灾难恢复

简介:
[数据恢复故障描述]
  两台SPARC SOLARIS系统通过光纤交换机共享同一存储,本意是作为CLUSTER使用,但配置不当,两台SERVER并未很好地对存储互斥,设计意图为:平时A服务器正常工作,当A服务器宕掉后,关掉A,开启B接管服务。
  偶然的机会,一位管理人员开启B服务器,查到B服务器连接了一组很大的磁盘(实际上就是那个共享存储),因B服务器一直闲置未用,管理员以为磁盘也是闲置的,于是将整个磁盘的某个分区做了newfs。
  A服务器很快报警并宕机,重启A服务器后,发现所有的文件系统均无法mount,执行fsck后,大多数分区的数据均修复成功,只有在B机做过newfs的文件系统结果不理想,根目录下只有一个lost+found文件夹,里面有大量数字标号的文件。
  故障文件系统存储了两组ORACLE实例,原结构为UFS,约有200~400个数据文件需要恢复。
 
[数据恢复分析]
  光纤设备的共享冲突案例很多,起缘于光纤交换的灵活性。此例中,A机与B机同时对UFS这个单机文件系统进行访问是很糟糕的,两台SERVER都以想当然的独享方式对存储进行管理,A机正常管理的文件系统其实底层上已经被B机做了文件系统初始化,A机从缓冲区写入文件系统的数据也会破坏B机初始化的结果。
  B机newfs实际上直接会作用于原先的文件系统之上,但此例与单纯的newfs会有些不同,在A机宕机之前,会有一小部分数据(包括元数据)回写回文件系统。newfs如果结构与之前的相同,数据区是不会被破坏的,同时如果有一小部分元数据存在,部分数据恢复的可能性还是存在的。
  UFS是传统的UNIX文件系统,以块组切割,每块组分配若干固定的inode区。文件系统newfs时,如果结构与之前的相同,文件系统最重要的inode区便会全部初始化,之前的无法保留,inode管理着所有文件的重要属性,所以单纯从文件系统角度考虑,数据恢复的难度很大。
  好在oracle数据文件的结构性很强,同时UFS文件系统还是有一定的存储规律性,可以通过对oracle数据文件的结构重组,直接将数据文件、控制文件、日志等恢复出来。同时oracle数据文件本身会有表名称描述,也可以反向推断原来的磁盘文件名。
 
[数据恢复过程]
  对故障的文件系统做dd备份。
  针对整个镜像文件做完全的oracle数据结构分析、重组。
  对部分结构太乱,无法重组的文件,参考ufs文件系统结构特征进行辅助分析。
  利用恢复的数据文件、控制文件在oracle平台恢复数据库。
 
[数据恢复结论]
  所有数据库完全恢复。
 
[后记]
  fsck是很致命的操作,在fsck之前最好做好备份(dd即可)。
  光纤存储的不互斥是非常多的数据灾难原因,方案应谨慎部署与实施。




本文转自 张宇 51CTO博客,原文链接:http://blog.51cto.com/zhangyu/152186,如需转载请自行联系原作者
目录
相关文章
|
6月前
|
消息中间件 定位技术 数据库
事务跨数据中心处理
事务跨数据中心处理
60 1
|
3月前
|
存储 运维 Oracle
服务器数据恢复—光纤共享存储互斥出现问题的数据恢复案例
两台SOLARIS系统(SPARC平台)的服务器通过光纤交换机共享同一个存储作为CLUSTER使用。正常情况下只有A服务器工作。如果A服务器发生故障宕机,可将A服务器关机,开启B服务器接管。但由于配置不当导致共享存储互斥出现问题。 管理员进行运维检查时发现B服务器连接了一块未知磁盘。由于B服务器并未启用,处于闲置状态,所以管理员也将这块磁盘当作闲置的,于是在B服务器上将磁盘的某个分区做了newfs。没想到这块磁盘就是那个共享存储,执行操作没有多长时间A服务器就开始报警并宕机。
|
4月前
|
Oracle 关系型数据库 数据库
关系型数据库Oracle 故障转移能力
【7月更文挑战第10天】
51 2
|
4月前
|
Oracle 关系型数据库 数据库
|
4月前
|
存储 Unix API
云计算存储问题之iSCSI SAN环境中的服务器获得新分配的磁盘卷如何解决
云计算存储问题之iSCSI SAN环境中的服务器获得新分配的磁盘卷如何解决
|
6月前
|
算法 编译器 C语言
共享介质与非共享介质:网络通信的两种模式
共享介质与非共享介质:网络通信的两种模式
153 1
|
11月前
|
存储 数据挖掘
Vsan数据恢复—vSAN逻辑架构出现故障的数据恢复案例
一台存储采用了VSAN分布式存储架构,存储内共有24块硬盘存储数据。 这台vSAN存储设备关机重启。经过数据恢复工程师的检测,发现vSAN逻辑架构出现故障,上层虚拟机瘫痪,存储内的数据丢失。
|
弹性计算 负载均衡 测试技术
|
数据中心 网络虚拟化 虚拟化
联盟时代VIII.灾难容错和切换(2)
在上期的分享中,笔者对Federation网络架构下满足“本地输出”要求的场景在出现故障时的容错和切换情况进行了说明。当整体NSX网络在设计时就充分考虑冗余的前提下,大部分的“组件故障”并不会引起大面积的“业务停摆”。但Edge集群的故障不仅仅会造成南北向网络可达性的中断,也同样会造成跨数据中心的东西向网络中断;因此笔者认为Edge集群的稳定性很大程度上决定了Federation网络的稳定性。今天的分享将围绕不满足“本地输出”的场景展开,看看在具有Tier1SR实例的Federation网络模型中,灾难容错和网络切换的情况究竟是如何的一番天地。