【原创】DELL2950支持数据迁移
前不久一台测试服务器2950开机后无显示,经换电源模块、主板、CPU、内存、硬盘背板后都还是异常,因为不是专业的硬件工程师,所以只能采取数据迁移的方式。
前提条件:
已宕机的一台2950服务器必须有阵列卡、阵列卡电池,型号一般是PERC 5/i。阵列卡电池无需有电没电。
备机也是一台2950服务器必须有阵列卡、阵列卡电池,型号也是PERC 5/i,电池无需有电没电。
数据迁移工作:
1、将宕机的2950服务器关闭电源后将硬盘依次拔出,每块硬盘的槽位一定要记得。
2、将备机的2950服务器关闭电源后同样将硬盘依次拔出,槽位可记可不记。
3、将宕机的2950服务器拔出的硬盘依次插入到备机的槽位中,顺序一定要和宕机前的槽位一样。顺序千万不能乱!!!
4、备机开机根据提示按CTRL+R进入阵列卡BIOS设置。
5、进去之后进入到默认界面:
6、在CONTROLLER菜单上面按F2键,如图:
7、然后将光标移至Foreign Config项后出现两个子菜单项是import和clear,我们选择import选项后按回车键,在提示下按yes后就应该能看见阵列信息了,如下图:
8、最后保存退出、重新启动备机就应该能登录操作系统了!
记一次数据中心云平台系统项目实施
朋友所在的单位中标了,一人前去目标地点实施,因为他对虚拟化、存储这一块不是很熟悉,所以让我跟他一起实施(做些远程支持)。
实施前准备:
由于朋友去的匆忙,并没有说清楚目标地点的环境,因此我让他准备一下:
1.确定一下是原有的数据中心云平台系统升级还是新装
2.确定一下设备以及相关配套设施是否就位
3.确定一下设备及关键配套设备的具体型号,是否已经上架
4.确定一下机房内网络电源等是否完备,如果完备的话提前联系好相关负责人,如果网络没有规划设计,则需要规划和设计网络
5.(可选)货物清单,项目合同等
经朋友询问,只知道服务器是6台Dell PowerEdge R720,1套Dell未知型号的15T存储和使用VMware vSphere虚拟化环境,设备以及配套设备基本就位了,还差一些存储的连接线,其他的只有到了现场才知道。虽然个人还是喜欢使用自己熟悉的Cisco UCS和EMC存储,但Dell的服务器设计也是可以的,服务器R720价格便宜,内存、IO等功能也比较完备,适合做企业级虚拟化。但不知道究竟是什么存储心里还是有些不踏实,存储这些东西真是做一次学习一次。因为此次实施是在外地,时间短,需要在短时间内就要完成,如果知道是什么型号才好下手,查手册查指南等,免得到时候手忙脚乱。
部分实施计划:
Day1.跑路去客户现场,电话预知项目大概情况,晚上去客户机房了解实际情况,做好相关记录
Day2.服务器、存储上架,上线上电,安装VMware vSphere ESXi,初始化配置存储
Day3.继续配置VMware vSphere环境,配置网络,配置HA,配置虚拟机
Day4.确认实施结果,跟客户说明实施情况和注意事项,跑路回来,跟公司报告实施情况,等待或提前做好下一步安排
部分实施细节:
经查,前面提到的未知型号存储是Dell PowerVault MD3800f(e04j)和Dell PowerVault MD1200(e03j)。经过查询Dell文档和VMware文档,这些服务器和软件之间都是兼容的,这样就令人放心,最起码在方案选型时,售前并没有吃干饭。
MD3800f是一个高速光纤通道存储,支持16 Gb FC和12 Gb SAS连接,支持12 Gb/s SAS技术,支持MD Storage Manager软件对存储进行配置管理和PowerVault VMware vCenter插件程序5.0,使用VMwarevCenter对存储进行配置管理。R720可以通过安装FCoE HBA卡与MD3800f进行直连(DAS),此处估计刻意减去了SAN FC交换机的成本。理想的情况是R720服务器安装两个HBA卡,分别连接到两台FC交换机,两台FC交换机再连接到存储的两个IO模块,但受限于没有FC交换机,那只能将两块HBA卡直连到存储的两个IO模块,如果只有一块HBA卡,那只能连接存储上的一个IO模块了,具体使用哪种根据实际需要和实际情况使用。个人认为FC SAN的性能是优于IP SAN的,因为通常通过FC访问高性能数据库和生产服务器,通过存储局域网络NAS访问桌面存储等。
MD1200可以扩展MD3800f,通过SAS连接线将MD1200与MD3800f连接起来,扩充存储容量,最多支持192块硬盘,支持6 Gb/s SAS技术。
PowerVault存储阵列可与PowerEdge服务器相配合还是不错的,PowerVault MD系列使用与PowerEdge服务器相同的磁盘驱动器,因此只需要购买一种备用驱动器、风扇或电源就行了。对于用户来说还是很人性化的,做虚拟化时可以把服务器上的硬盘尽可能的加到存储上,毕竟因为HA可靠性等原因,本地存储在VMware vSphere中一般不会使用。
搞定了存储的型号和解决方案的设计,就可以进行下一步了。由于Dell产品在保内是有原厂支持的,因此存储的配置交给Dell工程师就行了,这一块是朋友那边做的,我没有看到。最终的结果就是划分出两个LUN1和LUN2,供服务器使用。
6台服务器做2个集群,每1个集群3台服务器,其中2台互为主备,1台standby。因为朋友单位购买的是VMware vSphere 5 Enterprise版本,此版本还是有很多限制的,比如vSphere Distributed Switch,令人不爽的是Cisco Nexcus 1000v也是不支持的,Cisco Nexcus 1000v要求必须有vSphere Enterprise Plus license,因此只能使用vSphere标准交换机。
每一台服务器是有4个网卡的,从0-3,0和1划分到vSwitch0,用于管理网络(Management Network)和VMkernel使用,用于管理和连接存储,其上行链路接交换机的Vlan access端口,2和3绑定到vSwitch1,作为虚拟机网络,其上行链路接交换机的Trunk access端口,这样虚拟机可以使用不同的VLAN来隔离网络。
将存储划分给vSphere Cluster(集群),LUN1给Cluster1,LUN2给Cluster2,之所以这么做,是因为朋友那边说主机上只有一个HBA卡,所以一个HBA卡只能连接一个存储IO接口,我也是没办法。
接下来的工作就由朋友一人独立完成了,我的工作也到此结束。
补充知识:
借助FC,服务器能通过光纤网络、数据中心甚或广域网与存储相连。多台服务器能够共享一个存储阵列。在SAN中,阵列(fabric)由与FC交换机相连的服务器和存储组成,如下图所示。SAN中的标准做法是,创建两个完全独立的物理阵列,提供两条与存储相连的不同路径。每个阵列上的FC阵列服务都独立运行,以便当服务器需要永续连接到一个存储阵列时,它与两个独立阵列相连。这种设计能够防止一个阵列中的故障或误配置影响另一个阵列。
补充知识来自以下参考:
Cisco IBA智能业务平台--数据中心设计概览.pdf http://www.cisco.com/web/CN/solutions/industry/segment_sol/enterprise/programs_for_large_enterprise/pdf/dc/Cisco_SBA_DC_DataCenterDesignOverview-Aug2012_CHN.pdf
Cisco IBA智能业务平台上的文档还是非常详细的,大家如果以后做类似项目时可以多参考一下,从数据中心到统一通信应有尽有。
Tag:云平台项目实施,VMware虚拟化实践,Cisco IBA智能业务平台,磁盘阵列,高速光纤通道存储
--end--
本文转自 urey_pp 51CTO博客,原文链接:http://blog.51cto.com/dgd2010/1702920,如需转载请自行联系原作者
戴尔PowerEdge RAID控制卡使用示例(PERC H710P为例) Dell PERC使用示例列表(H710p)
特别说明,本文相关RAID的操作,仅供网友在测试环境里学习和理解戴尔PowerEdge服务器RAID控制卡的功能和使用方法。切勿直接在生产服务器上做相关实验,这可能有误操作并造成数据丢失的风险!
示例演示环境:PowerEdge R620 + H710p Raid控制卡 + 9 x 300G 10k SAS 硬盘
PERC卡的基本使用技巧
PERC卡RAID配置信息的初始化 :
戴尔PowerEdge服务器RAID控制卡的配置,可以使用戴尔提供的多种工具和界面来进行。其中包括H710p板载的PERC BIOS管理界面,生命周期控制器,系统设置,以及OMSA软件等。下面针对不同的使用目的,我们选取推荐的配置工具和界面给大家做个演示。
默认情况下,我们可以使用PERC H710p的板载固化配置管理界面进行大多数的功能配置。如果需要重新初始化RAID卡里硬盘的RAID配置信息,我们可以进行下面步骤:
注:下面PERC卡RAID配置信息初始化的演示,我们将清除PERC卡的磁盘阵列信息,但不清除磁盘上实际存放的用户数据。在后面的实验里,我们将演示在原有的硬盘上创建同样的RAID配置,来恢复硬盘上的用户数据。
1. 服务器开机,系统自检,加载到PERC卡自检界面的时候,按<CTRL+R>进入PERC BIOS管理界面
这里,PERC已经创建好了两个RAID阵列:RAID1(Disk ID=0,1),RAID10(Disk ID=2,3,4,5)
下面,我们将清除PERC卡阵列信息,为重新初始配置所有的硬盘做准备
2. 高亮选中需要管理的PERC卡,按F2,选择弹出菜单里的“Clear Config”
3. 在告警提示窗口里选择“YES”确认
4. PERC卡磁盘阵列信息清除成功,查看磁盘列表,各个磁盘状态已经变为“Ready”,为后面的配置演示做好了准备
注:我们到这步,只清除了RAID的配置信息,没有清除硬盘上的用户数据
小结, end。
___________________________________________________________________________________
RAID阵列的创建 :
前一页,我们清除了PERC卡原有的配置信息,硬盘上的用户数据并没有被初始化掉。下面,我们就还有机会可以创建回和原来一样的RAID配置(RAID1+RAID10),并恢复回原有的用户数据。我们来示范一下(除非故障原因,不建议管理员在生产服务器上做类似的测试)。
1.先检查确认硬盘都处于“Ready”状态,高亮选中需要配置的PERC卡,按F2,在弹出菜单里选择“Create New VD”来创建新阵列(这里称为VD: Virtual Disk)
2. 我们先创建第一个RAID1阵列:在“RAID Level”里选择“RAID-1”,然后在它下面的物理磁盘列表里,选择头两个硬盘(Disk ID=0, 1)做RAID1。我们注意到:我们使用的是2个300Gb的硬盘做RAID1,生成的VD Size还是278.87GB,即一块硬盘左右的空间大小。保留默认的条带与缓存设置,选择OK
3. 系统提示,如果是新创建的RAID阵列,建议在创建后做一次阵列的初始化,这样硬盘上已经存有的用户数据也将会被干净地清除。本示例我们只是想恢复原来清除的RAID配置信息,所以选择OK,接受提示就可以了。如果想做用户数据的清除,请查看RAID阵列的初始化与管理。
4. 这样我们就使用和原来一样的两个硬盘ID=00,01,创建好了与原先一样的RAID1阵列。
5. 同样方法,使用原先一样的4块硬盘(Disk ID=2,3,4,5)创建RAID10
6. 这样,原先清除的两个磁盘阵列又被创建回来了。
注:清除PERC卡阵列配置信息后,可以使用同样的磁盘,创建同样的磁盘阵列。如果没有做阵列初始化的话,磁盘上的用户数据还是存在的。本例中,服务器原先安装好的Windows 2008操作系统还保存在硬盘上,马上我们就可以服务器重启,进入操作系统。
小结, end。
___________________________________________________________________________________
RAID阵列的初始化与管理 :
如果我们创建RAID阵列的目的是新部署一台服务器,我们建议所有新创建的RAID阵列都应该做初始化操作,这样,硬盘上原有的用户数据将被清除,以便进行后续的系统,软件安装。
1. 我们临时创建了一个新的RAID1阵列,如图(Disk Group:1;Virtual Disks ID:2),选中该阵列,按F2,在弹出菜单里选择Initialization
2. 选择Start Init将进入阵列初始化,当然,Stop Init可以将初始化过程停止。屏幕右上方可以看到初始化的进度百分比。用户需要等待初始化进程结束,才可以开始使用该阵列。
3. 我们也可以选择Fast Init,我们进入的是后台的阵列初始化过程。这个过程在后台自动进行,对用户是透明的,用户可以重启服务器,可以马上开始使用阵列安装系统及软件。初始化的进程在服务器开机状态下,会继续完成所需的初始化步骤,直至结束。
4. 在阵列初始化结束后,我们还可以对阵列进行检查,这经常是在出现硬件或磁盘告警的时候,确保RAID的完整。
5. 当然,还有删除阵列,如图,就不细说了
小结, end。
___________________________________________________________________________________
Dedicated热备硬盘的设置 :
小结, end。
___________________________________________________________________________________
全局热备硬盘的设置 :
下面的示例如图,我们已经做好两个RAID阵列,RAID1 和RAID10。ID=06的硬盘已经设成RAID10专享热备硬盘。我们希望将空闲硬盘ID=07设置成全局热备硬盘。这样,在RAID1或者RAID10阵列里出现硬盘故障的时候,该热备硬盘都将自动进行数据重建,并加入到相应的阵列里。
1. 按CTRL+N切换到PD Mgnt(物理硬盘管理)界面上,我们看到ID=06的专享热备硬盘状态已经是Hotspare了
2.高亮选中ID=07的空闲硬盘,按F2,弹出菜单里选择Make Global HS
3. 设置完成,这里ID=07的硬盘状态已经变成Hotspare,在PD Mgnt里看不出全局和专享热备硬盘的区别
4. 按CTRL+P回到VD Mgmt,我们可以看到ID=07的硬盘已经是支持RAID1和RAID10阵列的全局热备硬盘了。
小结, end。
___________________________________________________________________________________
RAID磁盘成员的在线管理和维护
小结, end。
___________________________________________________________________________________
PERC卡的高级使用技巧
磁盘漫游 :
磁盘漫游是指在同一控制器的电缆连接或背板插槽间移动物理磁盘。控制器将自动识别重新定位的物理磁盘,并从逻辑上将其置于属于磁盘组的一部分的虚拟磁盘中。
注:仅当系统关闭时才能执行磁盘漫游。请勿在 RAID 级别迁移 (RLM) 或联机容量扩展 (OCE) 过程中尝试磁盘漫游。这将导致虚拟磁盘丢失。
下面我们来做一次磁盘漫游的演示:
1. 实验环境:这是一台PowerEdge R620服务器,运行Windows 2008 R2企业版服务器。服务器上有两个磁盘阵列(Drive C:是RAID1,Drive D:是RAID 5),两个阵列上都存有文件。
我们注意到,RAID1成员为ID=00, 01,RAID5成员为ID=02,03,04
2.关闭系统、物理磁盘、机柜和系统组件的电源。从系统上断开电源线的连接,然后拔出ID=00~04的所有硬盘,打乱次序后,随机插回背板槽位。开机进入PERC BIOS管理界面:
这里,我们注意到,RAID1的成员已经变成ID=02,04。这是因为原来RAID1的两个成员硬盘被插到了服务器背板上02,04的槽位去了。同样可以看到RAID5的硬盘插入到了00,01,03的槽位上去了
3. 执行安全检查。确保正确插入物理磁盘。然后退出管理界面,重启服务器,进入Windows操作系统:
服务器正常进入Windows 2008 R2系统,所以驱动器上的文件未受影响。
小结, end。
___________________________________________________________________________________
RAID阵列的迁移 :
PERC H710、H710P 和 H810 插卡支持在不同控制器间迁移虚拟磁盘,而无需使目标控制器脱机。控制器可以导入处于最佳、降级或部分降级状态的 RAID 虚拟磁盘。但不能导入处于脱机状态的虚拟磁盘。
磁盘迁移提示:
支持从 PERC H700 和 H800 至 PERC H710P 和 H810 的虚拟磁盘迁移
支持在 H710、 H710P、或 H810 中创建的卷的迁移
支持将在 H310 上创建的卷迁移至 H710、 H710P、或 H810
不支持从 H700 或 H800 至 H310 的迁移
不支持从 H710、 H710P、或 H810 至 H310 的迁移
注: 在执行磁盘迁移前,源控制器必须处于脱机状态。注: 磁盘不可迁移至旧版或换代前的 PERC 卡。注: 非 RAID 磁盘仅在 PERC H310 控制器上受支持。不支持迁移至任何其他PERC 产品。注: 在提供或配置相应的密钥 (LKM) 情况下,支持导入受安全保护的虚拟磁盘。
如果控制器检测到物理磁盘包含现有配置,则将该物理磁盘标记为 foreign(外部),并生成检测到外部磁盘的警报提示。
小心: 请勿在 RLM 或联机容量扩展 (OCE) 过程中尝试磁盘漫游。这将导致虚拟磁盘丢失。
下面我们来做这样的一个实验:
1. 我们先看一下服务器(R620+H710p)的RAID配置:3个硬盘组成的一个RAID5,分配了100GB的虚拟磁盘空间
2. 关闭服务器,将上述硬盘从背板槽位取出,然后插入到另一台同型号服务器上,开机
服务器自检提示:PERC卡发现外来配置(Foreign Configration)。这里我们如果按“F”键,PERC将自动从硬盘导入相关的RAID配置信息。为了看得明白点,我们选择按“C”进入管理界面进行配置。
3. 在管理界面里,我们现在还看不到RAID的信息。高亮选中PERC卡,按F2,在菜单里选择“Foreign Config” --》Import 进行RAID配置信息的导入。
4. 告警提示,选YES
5. 这样,硬盘上存放的RAID配置信息就迁移到新的PERC卡上了。我们的磁盘迁移完成
小结, end。
___________________________________________________________________________________
RAID磁盘阵列扩容 :
这里我们讨论服务器硬盘空间不足时,我们有什么方法可以扩充原有虚拟磁盘的空间,而无需删除上面的数据。
演示快速入口:
联机容量扩充 (OCE)
RAID 级别迁移 (RLM)
简介
我们可通过扩充容量和 / 或改变 RAID 级别的方式来重新配置联机虚拟磁盘。
注: 跨接式虚拟磁盘 (如 RAID 10、 50 和 60)无法重新配置。注: 重新配置虚拟磁盘时一般会对磁盘性能有所影响,直到重新配置完成后为止。
联机容量扩充 (OCE) 可通过两种方法实现。
如果磁盘组中只有一个虚拟磁盘,而且还有可用空间可供使用,则可在可用空间的范围内扩充虚拟磁盘的容量。
如果已创建虚拟磁盘,但虚拟磁盘使用的空间未达到该磁盘组大小的上限,则剩有可用空间
通过 Replace Member (更换成员)功能使用较大的磁盘更换磁盘组的物理磁盘时也可以获得可用空间。虚拟磁盘的容量也可以通过执行 OCE 操作来增加物理磁盘的数量进行扩充。
RAID 级别迁移 (RLM) 是指更改虚拟磁盘的 RAID 级别。 RLM 和 OCE 可同时实现,这样虚拟磁盘可同时更改 RAID 级别并增加容量。完成RLM/OCE 操作后,不需要重新引导。要查看 RLM/OCE 操作可行性列表,请参阅 下表。源 RAID 级别列表示执行 RLM/OCE 操作之前的虚拟磁盘RAID 级别,目标 RAID 级别列表示操作完成后的 RAID 级别。
注: 如果控制器包含的虚拟磁盘数目已达最大值,则不能再对任何虚拟磁盘进行 RAID 级别迁移或容量扩充。注: 控制器将所有正在进行 RLM/OCE 操作的虚拟磁盘的写入高速缓存策略更改为直写式,直到 RLM/OCE 完成。
RAID级别迁移:
下面,我们来演示一下两种情形下磁盘的扩容:
联机容量扩充 (OCE)
实验的情景是:有一台R620服务器,两个硬盘驱动器。Drive C:是RAID1的阵列,安装操作系统;Drive D:是10GB的RAID1阵列,装有数据文件。如图:
我们重启服务器,按CTRL-R进入PERC BIOS 管理界面查看一下RAID的配置:
其中10GB的虚拟磁盘建立在一个总容量278GB的RAID1阵列上,该阵列还留有268GB的剩余空间。我们准备使用这些剩余空间,将10GB的虚拟磁盘扩充到50GB以上。
注:我们下面的演示,在PERC BIOS管理界面里进行。但是实际的操作,在OMSA GUI管理界面里也可以完成。后一个RLM的演示,我们将在OMSA管理界面里进行:
1. 高亮选中需要扩容的虚拟磁盘 VD1,按F2,在弹出菜单里选Expand VD size
2. 输入需要扩容的空间百分比15%,下面会显示扩容后的估计虚拟磁盘大小。然后选择Resize按钮
3. 管理界面回到主页面,选中VD1,可以看到空间已经变成50GB,且右侧显示后台初始化在进行中。这里的初始化是对新加入的空白区的初始化,并不会删除原有数据。
4. 初始化结束后,服务器重启回到操作系统。我们在服务器管理器的磁盘管理器里可以看到,原来的磁盘1 已经增加了40.33GB的空余空间。
5. 下面做Drive D:的空间扩展。鼠标右击Drive D:在弹出菜单里选择扩展卷
6. 进入扩展卷向导,点击“下一步”
7. 选择需要扩展的卷,已经希望扩展的大小。我们使用默认值,即全部空余空间,下一步
8.确认执行的操作,下一步
9. 任务完成,Drive D:已经成功扩容到50GB
10. 再次确认文件系统的新空间50GB,以及原有的数据文件都得到保存
RAID 级别迁移 (RLM)
下面我们来看看RLM,这种扩容方法可以通过改变RAID阵列的级别,或者往阵列里添加新的硬盘成员,来实现容量的扩展。我们来做一个演示,如何将RAID1扩展成由4个硬盘组成的RAID5,从而实现容量的扩展:
关于OMSA控制台的安装,请看RAID磁盘成员的在线管理和维护片头的说明
1. 登录OMSA控制台,查看一下阵列的配置信息:这里有两个RAID1阵列,VD0在第一个RAID1上,安装有操作系统,我们不做操作。VD1使用了另一个RAID1的200GB空间,该RAID1还余有78GB空余空间。
看看资源管理器,VD1对应的Drive D:存有用户数据:
2. 在VD1的可用任务里选择“重新配置”,点击执行
3. 顺带提一下,因为VD1所在的RAID1还有78GB剩余空间,如果想在OMSA管理界面里做OCE也是可以的,可以在这里的界面里点击“扩展容量”
然后就可以看到和上面OCE章节里相似的配置界面做OCE扩展,这里就不演示了。
4. 原来的RAID1由ID=02,03的硬盘组成,我们追加ID=04,05的空闲硬盘,点击“继续”
5. 选择新的RAID级别为RAID-5,注意提示:新的容量将变为600GB,点击“继续”
6. 确认配置信息,点击“完成”
7. VD1进入RLM扩展状态,我们可以在OMSA管理器里看到百分比进度,直至完成
8. 检查确认VD1扩展进程结束,级别已经显示为RAID5,成员变为ID=02~-05硬盘
9. 退出OMSA,我们注意到,在windows磁盘管理器及资源管理器里,扩展的新空间还未生效,还是200GB
10. 重启服务器,进入PERC BIOS里查看,服务器经重启后,新的空间生效了
11.服务器重启,重新进入操作系统,这次在磁盘管理器里,我们就可以看到多出来的未分配空间了。
12. 请按照OCE介绍里,卷扩展的步骤扩展Drive D:,至此演示完成
小结, end。
___________________________________________________________________________________
物理磁盘的电源管理 :
物理磁盘电源管理
是 PERC H310、 H710、 H710P、和 H810 卡具备的节电功能。此功能根据磁盘配置和 I/O 活动可允许磁盘停转。在所有旋转式SAS 和 SATA 磁盘上均支持此功能 (包括未配置、已配置和热备用磁盘)。
物理磁盘电源管理功能默认为禁用。可在 Dell Open Manage 存储管理应用程序中使用统一可扩展固件接口(UEFI) RAID 配置公用程序来启用此功能。
共有四种可用的节电模式:
No Power Savings (非节电模式)(默认模式)—所有节电功能均已禁用。
Balanced Power Savings (负载平衡节电模式)—仅对未配置的和热备用磁盘启用停转。
Maximum Power Savings (最大程度节电模式)—对已配置、未配置和热备用磁盘均启用停转。
Customized Power Savings (自定义节电模式)—所有节电功能均可自定义。您可以指定一个“优质服务”时间窗口,在该窗口期间排除停转已配置磁盘。
下面我们就来做一次物理磁盘电源管理的演示,帮助大家理解戴尔PowerEdge服务器PERC是如何实现物理磁盘的电源管理,以实现节能功能。
1. 我们先来看看演示设备的配置:我们有9块物理磁盘,ID=0,1组成VD0(RAID1),ID=2~5组成VD1(RAID5),ID=6是RAID5的专享热备硬盘,ID=7是全局热备硬盘,ID=8是闲置硬盘。我们看到其中ID=6~8的硬盘上其实是没有数据IO的,但它们却和其他硬盘一样处于运行状态中,消耗电源。我们下面将通过设置“负载平衡节电模式”来控制空闲硬盘的运转。
2. 我们先开机进入操作系统,运行OMSA,进入管理界面,在左侧导航栏里点击进入物理磁盘列表。我们注意到,ID=6~8的硬盘电源状态显示“高速旋转”,和其他联机硬盘是一样的,并不节能。
这个是完整视图:
3.点击左栏里的存储菜单,选择右边对应的PERC控制卡,在“可用任务”里选择“管理物理磁盘电源”,然后点击执行
4. 在物理磁盘电源管理设置里,选择“均衡节能模式”,然后点击“应用更改”
5.设置结束,回到物理磁盘列表,我们看到现在电源状况还没改变,暂时还是“高速旋转”
6.诺干时间后(约30分钟),刷新物理磁盘列表,我们看到,ID=6~8的3个空闲的硬盘,无论是热备还是完全闲置状态,电源状况都进入了“停转”状态,实现了服务器节能的目的
小结, end。
___________________________________________________________________________________
文章可以转载,必须以链接形式标明出处。
本文转自 张冲andy 博客园博客,原文链接:http://www.cnblogs.com/andy6/p/7398427.html ,如需转载请自行联系原作者
Linux之RAID介绍、软RAID5实操配置(失望攒够了就放手,不打扰是我最后的温柔)(一)
目录一、什么是RAID(独立冗余磁盘阵列)二、RAID物理分类2.1 硬RAID2.2 软RAID三、RAID逻辑分类3.1 RAID03.2 RAID13.3 RAID53.4 RAID103.5 RAID01四、构建软RAID5磁盘阵列1.创建软RAID磁盘阵列步骤2.需求描述3.构建过程五、总结一、什么是RAID(独立冗余磁盘阵列) 1988年,加利福尼亚大学伯克利分校首次提出并定义了RAID技术的概念。RAID通过把多个硬盘设备组合成一个容量更大、安全性更好的磁盘阵列,并把数据切割成多个段后分别存放在各个不同的物理硬盘设备上,然后利用分散读写技术来提升磁盘阵列整体的性能,同时把多个重要数据的副本同步到不同的物理硬盘设备上,从而起到了非常好的数据冗余备份效果和容错能力。 简单来说,RAID把多个硬盘组合成为一个逻辑硬盘,因此,操作系统只会把它当作一个实体硬盘。RAID常被用在服务器电脑上,并且常使用完全相同的硬盘作为组合。由于硬盘价格的不断下降与RAID功能更加有效地与主板集成,它也成为普通用户的一个选择,特别是需要大容量存储空间的工作,例如视频与音频制作 ,如今有许多B站up主,使用RAID技术来备份、管理数据。二、RAID物理分类2.1 硬RAID 图:硬RAID实现方式 图:磁盘阵列柜 图:磁盘阵列卡 磁盘阵列柜一般是企业级使用;RAID阵列卡更快更稳定,因为大部分有缓存,可以提升读写速度,好一点的阵列卡会带电池,更稳定。主板自带的RAID不要轻易尝试,主板超频失败,电池没电等问题都会导致阵列信息丢失。2.2 软RAID 早期的软RAID不太稳定,速度也不及硬RAID,但随着技术的不断优化,软硬RAID的差距也不再那么明显。比如群晖的NAS,它以数据为中心,将存储设备与服务器彻底分离,集中管理数据,从而释放带宽、提高性能、降低总拥有成本、保护投资。其成本远远低于使用服务器存储,而效率却远远高于后者。可用于打造私有云、家庭影院等。三、RAID逻辑分类图:硬盘比喻成水桶 3.1 RAID0 把硬盘看成一个水桶,读写操作看成是注水和抽水,只有一块硬盘的情况下,就是往一个水桶里面注水,水桶的入口大小限制了读写速度,当有两个水桶时,同时往两个水桶注水或抽水,读写速度就是单块硬盘的两倍,这就是RAID0模式。RAID0将两个以上的硬盘并联起来,形成一个的大磁盘,硬盘容量是所有硬盘容量之和,进行写入操作时,是同时将数据分别存入不同的硬盘中,读写操作由几块硬盘同时处理,RAID0在所有RAID中速度是最快的,容量也是最大的,但最大的缺点就是没有冗余和容错能力,如果坏一块硬盘,所有数据就完蛋了。 图:RAID03.2 RAID1 RAID1至少需要两块硬盘,所有硬盘互为镜像,每块硬盘上存储的数据都一模一样,阵列中只剩有一块硬盘没坏,数据都可以完整读出来,RAID1理论读取速度与RAID0相同,有几块硬盘速度就是单块的几倍,但写入速度等于一块硬盘,当RAID1有一块硬盘损坏时,拔出损坏的盘,换入新的硬盘,阵列会恢复数据到新插入的硬盘,也就是重建阵列,性价比很低,即使100块硬盘做RAID1,也只算一块硬盘的容量。如果两块盘大小不一样,木桶效应以最小的为准。图: RAID1图:RAID0和RAID1比较3.3 RAID5 RAID5将校验数据分散存在各个硬盘,每个硬盘都有校验数据,当一块硬盘损坏,所有其他盘里的数据配合校验信息,就可以进行恢复,至少需要三块硬盘,其中三分之一进行冗余,存放校验数据,另外三分之二空间存放原始数据,RAID5读写速度和RAID0相近,写入速度不及RAID0,但三分之一是校验数据,允许阵列损坏一块盘的情况下,实现数据完全恢复,安全性比RAID0高出很多。 图:RAID53.4 RAID10 RAID10至少需要四块硬盘,其中先两两组成RAID1,然后把两组RAID1组成RAID0,RAID10是先RAID1然后RAID0。RAID10的优点是,RAID10阵列建成后,再添加一组RAID1,总容量就可以轻松扩大;如果坏了一块硬盘,RAID10重建只需要对坏盘进行重建;假设两块硬盘有问题,只要坏的盘不在同一RAID1,阵列就不会坏掉,坏第二块盘导致阵列坏掉的概率是三分之一。3.5 RAID01 RAID01相较于RAID10的特点,RAID01阵列建成后,再添加一组RAID0,总容量没有变化;如果坏了一块硬盘,RAID01重建需要对两块硬盘进行恢复;假设两块硬盘有问题,只要另一组RAID0任意一块硬盘损坏,整个阵列就会坏掉,坏第二块盘导致阵列坏掉的概率是三分之二,
db-server规范化配置模板一一硬件、文件系统、操作系统
(从底层到上层的优化)
一、存储层的优化:
使用RAID 1+0,不使用RAID 5/或RAID 6
raid磁盘使用介意8块盘为一组lun。
切忌跑数据库服务器禁用liunx的软lvm。(严重影响性能)
阵列卡配备CACHE及BBU模块,作为写CACHE的基础支撑
注意:BBU:是阵列卡cache的供电模块,里面是多个电池组成的电池组。
设置写策略为WB,或者FORCE WB,千万别用WT策略
1、wb = write back:
从os提交io写请求到磁盘里,首先会传到阵列卡里,阵列卡会先把io写请求放到cache里,然后在从cache里异步的写入磁盘里。
注意:os认为io提交完成了,其实数据并没有完全写盘,而是在cache中,如果BBU电量低于百分之15,则会切换wt模式,此时io压力负载会相当的高。
2、FORCE WB:不论电量多少,都强制写到cache里面。
注意:如果阵列卡的BBU模块损坏或者没电,写入策略又设置成force WB,那os发送io写请求,还会写入cache里。此时如果机器停电,阵列卡cache里的数据则会丢失。
3、wt = write through :不写cache 直接写磁盘。
关闭预读,没必要预读,那点宝贵的CACHE用来做写缓存(强烈推荐)
关闭物理磁盘cache策略,防止丢数据
注意:服务器断电时,由于阵列卡的cache有BBU模块供电,能够将cache里的数据写入到磁盘,但是磁盘的cache没有供电机制,一旦停电,磁盘cache里的数据会丢失。
使用高转速硬盘,不使用低转速盘或者使用SSD及PCIe-SSD盘
基于SSD设备调整系统内核参数:
通过调整 /sys/block/sdx/queue/read_ahead_kb 来控制系统内核中预读策略的大小为16KB(具体多少要看平均每次IO读大小,16kb是经验值),通过适当预读提高整体性能。
注意:把预读出来的块放到内存里面,这样可以有效提高,顺序IO读的效率,视情况而定。
大量的IO请求数必定会产生庞大数量的中断请求,因此需要在每个核上绑定不同的中断号策略,避免单歌核心的cpu负载过高。
中断:内核跟io打交道的时候,是通过驱动连接,因此再跟驱动交互的时候就会产生中断问题(因为cpu和内存比磁盘的速度要快)
======================================================
二、BIOS的优化:
System Profile(系统配置)选择Performance Per Watt Optimized(DAPC),发挥最大功耗性能,而不是节能模式(高运算节点禁用)。
注意:在节能模式下,服务器低频性能转高频性能时,容易出现bug,导致服务器功耗发挥不起来。
Memory Frequency(内存频率)选择Maximum Performance(最佳性能)
C1E,允许您在处理器处于闲置状态时启用或禁用处理器切换至最低性能状态,建议关闭(默认启用)
C States(C状态),允许您启用或禁用处理器在所有可用电源状态下运行,建议关闭(默认启用)
CPU优先选择主频高(运算能力),其次选择核数多的(可以多线程并发处理,使用多实例)。
注意:由于mysql是单进程,多线程的工作模式,所以更多的是依赖于高主频的cpu,如果是多实例,可以选择核心多的,来提高运算性能
如果有硬盘大于2T,选择UEFI(新版BIOS),不使用老版本BIOS。
用更多内存来消除IO瓶颈的影响(多实例时,需要更多内存)。
注意:磁盘的运算速度肯定不如内存或者cpu的处理速度快,即便是SSD或者PCIE-SSD。所以需要更多的内存来支撑,缓解过多的iops。
======================================================
三、操作系统的优化:(/proc/sys/vm/)
vm.swappiness
减少使用swap的概率,vm.swappiness设置为0表示尽量少swap,100表示尽量将不活跃(inactive)的内存页交换出去。
注意:
RHEL 7以下,推荐设置为0,RHEL 7以上谨慎设置不高于5 ~ 10,减少使用swap的概率
RHEL 7以下,如果设置为0,有可能会导致OOM发生,要慎重。
千万不要跟vm.hugepages这个参数一起使用,否则很容易导致oom或者其他的坑。切忌!(有待测试)
vm.dirty_ratio = 5或者10 (经验值)
注释:规定百分比值。当脏数据组成达到系统内存总数的这个百分比值后开始写下脏数据(pdflush),默认值为20。
不高于30,一定要比dirty_background_ratio大,避免I/O子系统hang住
vm.dirty_background_ratio = 5或者10 (经验值)
注释:规定百分比值。当脏数据组成达到系统内存总数的这个百分比值后开始在后端写下脏数据(pdflush),默认值为10。如果超过10%,就会把所有IO阻塞住,直接进行刷盘操作。此时会产生大量的io阻塞。
vm.overcommit_memory = 1
注释:
规定决定是否接受超大内存请求的条件。这个参数有三个可能的值:
0 — 默认设置。内核执行启发式内存过量使用处理,方法是估算可用内存量,并拒绝明显无效
的请求。遗憾的是因为内存是使用启发式而非准确算法计算进行部署,这个设置有时可能会造
成系统中的可用内存超载。
1 — 内核执行无内存过量使用处理。使用这个设置会增大内存超载的可能性,但也可以增强大
量使用内存任务的性能。
2 — 内存拒绝等于或者大于总可用 swap 大小以及 overcommit_ratio 指定的物理 RAM 比例
的内存请求。如果您希望减小内存过度使用的风险,这个设置就是最好的。
io scheduler(优先使用deadline,如果是SSD,则使用noop)
提高调度器请求队列:echo 4096 > /sys/block/sdX/queue/nr_requests
注意:当有大量度请求的时候,系统的请求队列值会过高,这时候需要提高请求队列值。有点类似mysql中的back_log或者thread_cache_size参数,都是把队列池加大一点,让一部分队列先放进来,而不是让他们在外面一直的等待,队列进来后做快速请求,等请求完后在把这个队列快速处理掉。
调整文件系统时:首选xfs,其次是ext4
注意:XFS相比ext3和ext4在高io负载下提高IOPS能力表现更佳。在普通负载时这两个文件系统可能会相当,甚至可能会弱点。
mount参数:noatime, nodiratime, nobarrier
注意:
noatime, nodiratime:不记录文件/目录的最后访问时间(基本没有意义,无用)
nobarrier:现在的很多文件系统会在数据提交时强制底层设备刷新cache,避免数据丢失,称之为write barriers。
但是,其实我们数据库服务器底层存储设备要么采用RAID卡,RAID卡本身的电池可以掉电保护;要么采用Flash卡,它也有自我保护机制,保证数据不会丢失。所以我们可以安全的使用nobarrier挂载文件系统。
本文转自 emma_cql 51CTO博客,原文链接:http://blog.51cto.com/chenql/1958938
回顾2016年:我们见证了一场存储行业的厮杀
回顾2016年的存储行业,内部部署SAN/文件管理阵列的地位不仅受到公有云的冲击,加上超融合和软件定义存储也在搞事情。
现有传统双控制器磁盘阵列为了存储主要数据走向混合之路,但全闪存阵列正在发挥这个作用,所以混合阵列也在向全闪存靠拢。再看看高端统一阵列新晋厂商Infinidat,推出低价高可用性的InfiniBox阵列之后就好像吃了菠菜,战斗力飙升。
二级数据越来越多被对象存储,后者将大量采用的S3作为首选接口,留下主流磁盘和混合阵列来存储相对少之又少的内部部署数据。
公有云的增长率完全是不可抗力,AWS遥遥领先,Azure和谷歌紧随其后,单就2016年来看简直就是一场云计算乱战,信息量巨大,先是AWS与Vmware这两个冤家对头开始谈合作,谷歌挤走AWS抢了苹果的大单,微软Azure拿下波音公司订单,还开始支持红帽Linux。紧随着三大云巨头,甲骨文和IBM实力也不容小觑——这也是唯二两家旨在提供公有云服务的内部部署存储供应商。451 Research预测近两年内,公有云存储开支将翻一倍,在亚马逊,微软奋力碾压之下,NetApp, HPE和IBM供应商排名下降。
由于Nutanix成功进行 IPO并全速前进带动市场发展,超融合基础设施成为存储热点。思科,Dell EMC,联想和 HPE生产的超融合产品伴随服务器销售的适应性,服务器,存储和网络组合销售也随之呈爆炸式增长。
产品起源
值得注意的产品:
Dell EMC旗下DSSD公司推出的NVME访问和NVME驱动使用的D5阵列。
Dell EMC重新设计了VNX和VNXe阵列来生产Unity阵列。
Dell EMC 推出一款全闪存Isilon向外扩展型文件管理器。
思科推出HYPERFLEX超融合系统,还有UCS产品线中一个存储服务器新版本。
Primary Data开始发售DataSphere存储竖井融合的产品。
SpectraLogic发布了全球最大,最长的磁带库——TFinity ExaScale版本,拥有1EB容量并支持LTO, IBM和甲骨文格式。
亚马逊利用其80TB版本Snowball存储服务器专攻物理存储,从用户数据中心,和100PB Snowmobile卡车传输存储服务转向公有云。
还有一件要说明的事就是Dell EMC的融合系统业务承诺不采用Dell PowerEdge产品而是仍使用vBlock服务器。
最有趣的初创公司是Symbolic IO,该公司声称其技术通过一种不同的编码和处理内存数据的方式,运行数据库查询比其它系统(即使是采用XPoint的系统)要快60倍甚至更多。Symbolic IO在2016年期间还邀请美光闪存存储高管Rob Peglar加入,成为CTO,这给予了我们更多可信度。
收购事件
成功私有化的戴尔并购EMC是一件业界大事,670亿美元收购案见证了存储行业传奇人物,Joe Tucci的退休,以及David Goulden的EMC信息基础设施业务部门成为Dell EMC服务器,存储和网络机构。Michael Dell现在成为了除盖茨,乔布斯和拉里(甲骨文)以外的又一个企业IT巨头。
在Virtual Instruments陷入营收增长危机后,2016年3月,存储分析企业Load Dynamix与网络分析提供商Virtual Instruments合并。Load Dynamix投资人甚至为了Virtual Instruments,提供了2000万美元后续资金。新的公司认为其获取生产工作负载文件(通过Virtual Instruments技术)并在测试实验室中重现(Load Dynamix技术)的能力将加速解决企业问题。
然后11月份,Virtual Instruments收购混合云和虚拟化性能管理科技企业Xangati。
IBM 收购了对象存储供应商CleverSafe并迅速将其软件放入IBM公有云,这让IBM在对象存储市场稳坐了第一把交椅。
而Nutanix收购了VMware旗下负责内存缓存业务的PernixData,据说直接导致Pernix 风投人士的投资受到极大的冲击。
硬盘制造商终极Boss WDC收购闪迪及其配套闪存技术和产品。
超融合基础设施设备(HCIA)供应商GridStore收购容器初创公司DCHQ,两者并购后重命名为HyperGrid,现在提供超融合基础设施即服务(HCIaaS)。此外,DCHQ技术可将现有传统应用程序进行容器化。
闪迪剥离Nexgen后,HCIA商Pivot 3收购了拥有QoS闪存阵列的Nexgen。
2016年6月份,Cavium收购HBA和供应商QLogic并开始谈论NVMe over Fibre Channel。
4月份,存储和以太网供应商博科为了寻求新的发展之路以15亿美元收购Ruckus Wireless(优科无线)。但很快,风水轮流转,11月份博通又以59亿美元将博科吞并。
这标志着三个独立存储网络供应商——博科, Emulex和QLogic时代终结。这三家公司都被巨头收购。FC SAN市场还不够大。
企业死伤无数
全闪存阵列先驱Violin Memory在经历了漫长的挣扎期之后率先举了白旗,连续季度亏损加上纽约证券交易所施压,在12月份宣布破产。
其中被黑的最惨的就是对冲基金公司Pequod Capital主席兼总裁,Art Samberg,他在6月份,Violin被纽约证交所除名之前买入了530万Violin股份,当时交易价为0.62美元,价值约330万美元,现在Violin申请破产保护,股票交易价格为0.0462美元,价值约为24.5万美元,也就是说Violin破产让他直接损失了约300万美元。
闪存和存储供应商X‑IO——我们认为是ISE产品——在5月份结束了在美国科泉市生产运营并裁员。它的技术不错,尤其是NVMe Axellio技术,可能会另寻下家。而且X‑IO从未像其财政推手希捷和风投公司Oak Capital所期望的那样获得成功。
Crossroads将其持续亏损的存档产品卖给了加拿大公司StrongBox,现在侧重于专利授权。
2016年6月份,昆腾关闭了Symform同步共享业务。
XtremIO在2016年期间曾有传言称相对于EMC中的全闪存VMAX,XtremIO产品将被降级,但后者极力否认,不久XtremIO增加了文件存储容量。
CEO更替大戏仍在上演:
4月份,专注Hyper-V的超融合系统供应商——Gridstore经历了CEO罢黜事件,最终主席Nariman Teymourian取代了George Symons。
云存储网关供应商Panzura的CEO从Randy Chou换成了Patrick Harr,前者现在是基于云,安全即服务初创公司Nubeva的CEO兼联合创始人。
Veeam联合创始人兼CEO,Ratmir Timoshev辞职,由William Largent接手。
企业拆分事件
EMC在被戴尔并购之前就将其内容管理业务(Documentum等)售出了。
赛门铁克将Veritas分拆而出并出售给Carlyle Group,从而确认了一个事实——在收购Veritas之后,两家存储产品与安全业务整合失败。
怡敏信存储业务被其拥有者Clinton Group清空,留下一个投资业务。12月份,Memorex和Nexsan被出售给了私有机构,管理层重新洗牌,2017年,Nexsan可能会有新的发展。
企业联盟
2016年1月份,HPE向对象存储供应商Scality投资1000万美元。
思科投资超融合系统软件初创公司Springpath,然后推出了Springpath支持的Hyperflex超融合设备并在HCIA市场如鱼得水。
联想与Juniper联盟构建融合,超融合和超大规模数据中心基础设施产品。它还与很多的HCIA供应商——比如Nutanix, Pivot3, SimpliVity, Atlantis和Maxta。与Nexenta结盟,所以它的服务器可以运行NexentaStor软件,并与Nimble Storage有了合作关系。
Pure Storage和Cohesity协议Cohesity向Pure的主要存储闪存阵列提供融合二级存储设备支持。
闪迪与红帽合作,因此Ceph可以运行配置闪迪InfiniFlash闪存的服务器。迄今为止,InfiniFlash与Nexenta和Tegile都有销售协议,但并未一鸣惊人。
企业IPO方面,众所周知,Nutanix在9月份成功IPO,其股价从开始的26美元,到现在26.86美元。Pure Storage完成IPO是在10月份,开盘价17美元,如今交易价为11.15美元,请注意,没有对比就没有伤害。
技术开发
随着现有供应商或是推出新设计的闪存阵列(EMC DSSD, HDS A-系列)或是让现有阵列改装了SSD或闪存模块,全闪存阵列成为主流。
Nimble Storage通过其产品在全闪存阵列市场成功站稳了脚跟。NetApp的全闪存FAS也大受欢迎。 Pure Storage是迄今唯一一家到目前为止维持在前四大全闪存阵列供应商的全闪存阵列初创公司。实际上,它在3月份就推出了自己的第二个主要产品系列——机架规模FlashBlade系统,用于存储非结构化数据。 Pure的2016年可谓大获全胜,只是在与Dell EMC的IP诉讼对其有略微影响。
比较有趣的是,8月份,东芝发布FlashMatrix,直言要与 FlashBlade 竞争。这是一个由Atom CPU提供支持的实时,向外扩展型,计算加闪存分析引擎。东芝尚未宣布该产品何时上市,定价和可用性信息也都木有。
NVMe-over-fabric,利用可实现服务器存储堆栈分路的RDMA技术,对于内部部署阵列连通可能是最后一个主要的技术开发。许多初创公司专注该领域;例如Apeiron,E8,Excelero,Mangstor和Pavilion数据系统。包括HPE和NetApp,以及新成员Kaminario,Tegile和Pure Storage等几乎所有的公司都表示会支持这项技术。Dell EMC的DSSD部门通过结构访问阵列推出了D5 NVMe over Fabric访问阵列。这家光纤通道HBA供应商表示,它们将支持NVMe over Fibre Channel,以提供一个客户群升级路径。
服务器操作系统和应用程序需要转换到 NVMeoF并在2017年得到加强。
SSD密度增加的3D NAND也成为了主流,一方面是西数(收购闪迪)和东芝,另一方面是英特尔和美光都紧随领先发售产品的三星开始动作。英特尔在3月宣布推出3D NAND SSD。海力士还提供48层3D NAND产品,并且正在开发72层技术。东芝和其他厂商开始更多地将QLC闪存技术作为一个可负担的固态存档介质来说,这样它的低写入耐久性也就不大重要了。在美国闪存峰会上,东芝还简单介绍了100TB QLC SSD的理念。
而中国虽然在收购美光和投资西数方面失利,但仍然保持着自己进入3D NAND制造领域的步伐。
DataCore利用其并行IO软件领先于SPC-1基准测试,但是这降低了性价比;低于5万美元的DataCote x86服务器在价格上完全碾压100万美元以上的超大存储阵列。甲骨文高级副总裁 Chuck Hollis表示,SPC-1基准测试与DataCore的技术无关实际的IT周期。DataCore的主席则表示,吃不到的都说是酸葡萄。
1月份,后来者希捷终于凭借一个7盘片的10TB磁盘进入充氦驱动器时代,并称还将在今年晚期推出12TB充氦驱动器用于测试,而且14TB充氦驱动器也进入了其技术路线图。
而第三大磁盘驱动器供应商东芝并未推出充氦驱动器技术,容量增加稍有滞后。不过假如东芝没有重新规划磁盘驱动器投资计划,或是真的出售其磁盘驱动器业务,熬过了在美国Westinghouse核电站项目的数十亿美元损失的话,这种驱动器可能会在2018年实现。
希捷称,全新的热辅助磁记录(HAMR)驱动器将在2017年出现,HAMR将取代垂直磁记录。而Infinidat的20TB驱动器已经在路上了。
希捷仅仅为了展示自身的能力,就用闪存填充了3.5英寸的驱动器,制造了一个60TB SSD小样。想法虽好,但成本却是让人望而却步,希捷还需要做更多,它与海力士也一直传合作绯闻,但两家公司都没有正面回应过。
可能如果希捷董事长兼CEO,Steve Luczo不实行一个合适的闪存,那么芯片厂商合作伙伴关系也危险了。
与此同时,希捷的Kinetic磁盘驱动器也没有显山漏水,Igneous和OpenIO拒绝希捷的技术之后推出了自己的产品——在3.5英寸磁盘驱动器中插入了一个基于ARM的微服务器。2017年,我们还要再看。
对象存储市场在这一年中稳步发展,HPE投资Scality,戴尔更新Scality OEM协议,WD HGST部门推出了一个新的14PB存档阵列。随着戴尔并购EMC,该公司将拥有内部对象存储技术来PK Scality的RING(虽然之前它和Nutanix都跟戴尔有OEM协议,但明显客户需求至上),2017年可能会出现一次洗牌。
2016年,IBM的传统存储硬件营收下降,对此IBM投放了一名新高管负责存储——Ed Walsh,这个人我们之前也有介绍,2010年到2013年这三年做过IBM存储部门的副总裁,如今可以说是回归,因此2017年存储部门可能会有显著变化。
超融合基础设施在2016年占据主要的存储话题。Nutanix的IPO只是其中的一个章节。拥有VSAN,ScaleIO和VxRail/VxRack的Dell EMC是第二大供应商,这也使得EMC派生的部门——融合平台集团负责人Chad Sakac(原属EMC)在每一个领域都想要超越Nutanix。可实际上他还没下死手,上头就委婉表示我们应当继续销售有OEM协议的Nutanix XC系统,个人恩怨先放一放,客户需求才最重要。
2016年3月份,HPE推出了第2代超融合产品。之后在12月推出了更新的HC 250和HC 380系统。 SimpliVity在4月增加了Hyper-V支持。NetApp开始它正在开发的超融合系统。
HPE正在为服务器加强持久内存能力做准备,一方面利用Machine开发技术,另一方面使用非易失性闪存和XPoint或ReRAM组件。它在3月份推出的ProLiant服务器,采用了具有掉电保护功能的美光闪存DIMM,而在11月份的一次客户活动中Machine项目也开始刷存在感。 HPE的Memristor技术似乎遥遥无期——HPE Labs的老板兼Memristor布道者,Martin Fink都退休了,HPE还和闪迪有了ReRAM相关的合作关系。
这里有一个猜想,闪存DIMM仍然是一个处于早期阶段的技术。而且非易失性DIMM将是一个驱动XPoint的技术,而非驱动闪存的技术。
2016年内还推出了更快的32Gbps光纤通道,是16Gbps FC的两倍速。但它的影响因为能实现更快速阵列访问的RDMA技术,以及虚拟SAN超融合系统的兴起而淡化。
容器存储的概念发展迅速,例如,NexentaEdge为无状态Docker容器提供存储。 Portworx为容器提供持久存储,StorageOS和Hedvig也如是。但总的来说,容器存储仍是一个早期技术,没有明确的赢家。
不得不说3D XPoint的这一年并不顺畅,英特尔始终否认它是相变存储器(PCM)的一个变体,而性能说法——比闪存快1000倍等也遭到质疑,英特尔方面试图跳过这个陷阱,表示说的是原始的介质速度,但已经设置了这么高的性能,密度和耐久性标杆,初始营销如此卖力,现在看来实在是打了折扣。
无论何种原因,XPoint NVMe驱动器现在看来都是为了渲染ReRAM或PCM驱动器无意义,而XPoint DIMM,如果像如闪存DIMM一样使用DRAM缓存,性能就不会远超闪存DIMM。到目前为止,XPoint看来都是一场大型营销炒作,英特尔和美光后期必须证明它们的Optane和QuantX产品性能极好,就算是炒作也无可厚非。
最终章
备份软件供应商Veeam在2016年发展良好,营收猛增。梭子鱼和Commvault通过响应客户对公有云保护等需求,营收状况有了回春。
2016年2月份,Tegile进行了裁员,Atlantis和Data Gravity也是如此; 今年晚些时候,NetApp裁员数百人,Veritas也在12月份裁员。
内部部署SAN/文件管理阵列现在正处于全闪存针对主要数据的转型期并且供应商营收增长看来主要是从其它供应商处夺取份额,而不是新的销售营收。这样的方式主要是通过更好的分析,更快的闪存和更好的混合云(公有云和私有云)来支持的。
HCIA供应商,二级存储竖井融合厂商,纯软件存储供应商,云存储网关文件共享和保护厂商以及对象存储供应商看传统内部部署SAN/文件管理阵列都有些碍眼。
不过SAN/文件管理供应商还是有希望的,它们生存的关键是“屠龙”,而两个主要的龙就是超融合基础设施和公有云。
产品凭借全闪存和横向扩展技术,NVMe驱动器和光纤访问,通过更好的QoS和分析,通过对象存储链接和公有云后端访问来丰富,可以提供更好的公有云存储体验并打败HCIA部署。在规模上,共享存储是比超融合存储的更好选择。只要HCIA供应商被这种观念所困扰,现有SAN和文件服务器就有机会。
但是,如果HCIA供应商表明它们可以支持大规模部署,公有云供应商继续猛增,那么内部部署SAN /文件管理前景就会黯淡。明年此时想必会有定论。
本文转自d1net(转载)
如何在桌面电脑上使用 SAS 硬盘
SAS 硬盘要想在普通电脑上使用一般比较麻烦,首先是 SAS 不像普通 IDE/SATA 硬盘那样在主板上提供了接口。电源部分倒是通用、无分 SAS/SATA 的。于是我们必须找一张 SAS 卡,一般是 PCI-E 接口的。这些 SAS 卡很少专门针对桌面电脑的,比较多是服务器或者工作站拆机的,PCI-E 接口也不尽相同,但一般 PC 都可以使用(跟显卡同类型插槽,注意是否有足够多 PCI-E 槽)。淘宝或闲鱼上最便宜的大概三十一张。
SAS 跟 SATA 一样,有 3GB/s 速率和 6GB/s 的,二手旧硬盘 3GB/s 也不慢。
光有硬盘和 SAS 不行,还必须有数据线。SAS 线规格比较多,一般是 MiniSAS 接在卡一边,MiniSAS 又叫 SFF-8087 接口,另一边接硬盘的,是数据信号和电源线一体的,叫 SFF-8482 接口,这些都是 SAS 规范的标准接口,还有其他规范的 这里就不提了。值得一提的是,SAS 也有 SATA 的,好像我有的一张低成本卡 LSI Logic SAS3041E,便是 SATA 接口的,需要买那种 SATA 转换 SAS 线,也就是 SATA to SFF-8482。不过听淘宝上买线网友评论说,不是所有 SAS 硬盘都支持 SATA 模式的,以至于有些情况用不了的。其实仔细想想也是 SAS 转换 SATA 哪有这么容易。而且即使转换到 SATA,也只是阵列卡可以识别,普通主板的 SATA 肯定不行。
实际上我主要用服务器拆机下的 SAS 卡,IBM ServerRAID MR10i,标准 MiniSAS 接口,只不过买线就相对贵了,花了四十多块。
万事俱备只欠东风。东西准备好,然而我还是不知道怎么用的。估计就是和以前 IDE 阵列卡那样,开始进入厂家控制台设备吧。
我开机看,好慢呐,每次开机都等好久,而且都不能自动认出 SAS 硬盘,——不是有界面设置么,进不去的?
算了~我几乎想放弃,进入 win,认得 SAS 卡认不得硬盘。
好吧,我回公司看看跑 win 的服务器,把 SAS 硬盘装上,这下 win 可直接认出硬盘,也不用配置什么,即插即用,能认出盘符。完美~
这是 SAS 盘是虚拟出来的磁盘,都是可以 RAID 的,所以系统管理器那里看不出具体硬盘型号。
可是调用 HDTune 的话,则无效(扫坏道还是可以)~DOS 下的 MHDD 那自然也是不行的。
想看硬盘信息,这些工具都不行,于是我百度下,貌似只有硬盘哨兵 Hard Disk Sentinel 这款工具可以识别 SAS 硬盘,包括 SMART 等重要的信息。
由于家里的 SAS 卡不同,单位的服务器是其他品牌又是以前运维同事搞的,我也找不到人问。我想,既然开机不能配置,那有没有在 windows 配置的下的工具呢?进而百度之,果然是有滴,——叫 MegaRAID Storage Manager。不过不要到联想官网上下的那个版本,是老版本。要到 broadcom 官网(LSI 被收购了)下的才是最新的。
使用 MegaRAID Storage Manager,居然要登录,啥玩意密码?立刻懵逼了,不过其实就是填 win 用户和密码即可,进去之后,哇,可以认出硬盘型号了耶~
终于踏出成功的一步了!foreign config?这 SAS 卡留有之前的配置是吧,先清理再新建,不过,不过这工具操作好卡啊
发现联想下的是 6.X.X 版本,最新的到 15 版本了,立马更新,——不卡了!
不过就是登录那里有时找不到服务器,再试下就行。
总之,有这工具就方便多了,——应该还可以“热插拔”的是不?我没试
成功创建虚拟盘之后,硬盘哨兵立马就认出其中的 SMART 信息,不过 win 还不能读写。进入“计算机”的“管理”,像普通硬盘那样分区、格式化。
接着就可以用 HDTune 检测了~
值得注意的是,未格式化之前,用 HDTune 会慢很多。格式化之后慢扫硬盘最快可以达 200mb/s左右。
存储的一些基本概念(HBA,LUN)
原文:http://blog.csdn.net/wyzxg/article/details/3333453
有些新手总是在各式各样的概念里绕来绕去,弄的不亦乐乎。所以我就把我的一些理解写了下来,供您参考.我说的不局限于任何一种具体产品和厂家,也可能有些说法和某些厂家的说法不一样,但是我觉得应该算的上是本原的东西,有以不变应万变之功效,呵呵,见笑 1、关于HBA HBA的全称为Host Bus Adapter,即主机总线适配器。 a、总线适配器是个什么东西呢? 我们首先要了解一下主机的结构,一台计算机内部多半由两条总线串在起来(当然实际情况会有不同,这里只讨论常见的,简单的情况),一条总线叫系统总线,一条叫I/O总线。系统总线上接了CPU,MEmory,cache什么的,I/O总线上接的就是外围设备,现如今最常见的就是PCI总线了。这两条总线之间用桥接的芯片或者说电路连接起来。举个形象的例子,就好比一个城市里,有两条主干道,一条属于行政区,一条属于商业区,中间有个环岛,将两条主干道连接到了一起,系统总线就好比行政区里的主干道,而I/O总线就好比商业区的主干道。系统总线和I/O总线的带宽的单位都是以Gbyte来记,但是显而易见的是,行政区的主干道和商业区的主干道相比的话,前者肯定更“核心”,更宽,更顺畅,设计的要求也高。 我们知道,在向公仆部门要求服务的时候,是要有一些接口的部门和程序的,而桥接芯片的作用就是连接和协调两条总线的工作的。 虽然I/O总线的速度和系统总线的带宽相比要低很多,但是好歹也是以G来计量的,而我们知道外围设备的速度,往往只有几百兆,甚至几十k而已,怎么协调工作呢?好比卖煎饼果子摊子不能直接戳到城市主干道上,怎么办?好办,在主干道边上开个2000平米的小吃城,把摊子都收进去好了。那么主机总线适配器的作用也就是这个,我们就是要把外设组织起来,连接到I/O总线上去!HBA就是指Host和I/O BUS直接的一个适配器,也好比一个水管工常说的“双通”。
b、常见的HBA有哪些呢? 比如显卡,网卡,scsi卡,1394卡等等。我要拿出来说的就是FCHBA和ATA&IDE。我们通常说的什么Emulex的LP9002,什么Qlogic的QLA2340都是FCHBA卡,就是将Fibre Channel的设备和IO总线连接起来的适配器。ATA也是一种适配器技术,我们PC主板上的ATA接口,就是一个磁盘适配器的对外接口,要强调的就是,ATA说的是适配器技术,IDE是说得存储外设技术,比如我们可以说IDE硬盘,IDE光驱,说ATA接口,但是说IDE接口,ATA硬盘就不时那么合适了,虽然很多情况下,大家都习惯把他们混在一起说。 描述HBA的时候,有几个主要的规范要说一下 > 一个承上,就是说,HBA和IOBUS怎么连,我们经常说的PCI接口卡,就是指这个HBA卡是要插在PCI BUS上的PCI slot上的,但是现在的计算机上,不仅仅只有PCI总线而已,大家碰到的时候留意。 >一个启下,就是说HBA要和外设怎么连,这样的规范就很多了。 >再说HBA本身,比如带宽,比如运行机制(protocol等),独立处理能力等等 Tips:有时候我们看到的一块卡,看到的实际是一个物理的卡,有的时候实际上是多个Adapter,好比一家机构,挂多个牌子,有的时候,一块卡有两条通道,好比一家公司,有两套人马。
2、关于lun
a、lun的概念 lun的全称是logical unit number,也就是逻辑单元号。我们知道scsi总线上可挂接的设备数量是有限的,一般为6个或者15个,我们可以用target ID(也有称为scsi id的)来描述这些设备,设备只要一加入系统,就有一个代号,我们在区别设备的时候,只要说几号几号就ok了。 而实际上我们需要用来描述的对象,是远远超过该数字的,于是我们引进了lun的概念,也就是说lun id的作用就是扩充了target id。每个target下都可以有多个lun device,我们通常简称lun device为lun,这样就可以说每个设备的描述就有原来的target x变成target x lun y了,那么显而易见的,我们描述设备的能力增强了.就好比,以前你给别人邮寄东西,写地址的时候,可以写: xx市人民大街54号 xxx(收) 但是自从高楼大厦越来越多,你不得不这么写: xx市人民大街54号xx大厦518室 xxx (收) 所以我们可以总结一下,lun就是我们为了使用和描述更多设备及对象而引进的一个方法而已,一点也没什么特别的地方.
b、lun是什么东西? lun id不等于某个设备,只是个号码而已,不代表任何实体属性,在我们的实际环境里,我们碰到的lun可能是磁盘空间,可能是磁带机,或者是media changer等等. lun的神秘之处(相对于一些新手来说)在于,它很多时候不是什么可见的实体,而是一些虚拟的对象。比如一个阵列柜,主机那边看作是一个target device,那为了某些特殊需要,我们要将磁盘阵列柜的磁盘空间划分成若干个小的单元给主机来用,于是就产生了一些什么逻辑驱动器的说法,也就是比target device级别更低的逻辑对象,我们习惯于把这些更小的磁盘资源称之为lun0,lun1,lun2....什么的。而操作系统的机制使然,操作系统识别的最小存储对象级别就是lun device,这是一个逻辑对象,所以很多时候被称之为logical device。 有人说,我的windows里,就认到一个磁盘呀,没看到什么lun的说法,是不是lun=physical disk呢?回答是否定的,只要你注意,磁盘的属性里就可以看到有一个lun的值,只是因为你的disk没有被划分为多个存储资源对象,而将整个磁盘当作一个lun来用,lun id默认为零,如此而已。 我们曾经碰到过这样的问题,比如有人问,我们有一个磁盘阵列,连到了两个主机上,我们划分了一个lun给两个主机认到,然后我们想,先在操作系统将磁盘分为两个区,让两个主机分别使用两个分区,然后再出现某一台主机宕机之后,使用集群软件将该分区切换到另外一个主机上去,这样可行吗?答案也是否定的,集群软件操作的磁盘单元是lun,而不是分区,所以该操作是不可行的。当然,在一些环境,一般也是一些要求比较低的环境,可以在多个主机上挂载不同的磁盘分区,但是这种情况下,实际上是没有涉及到磁盘的切换的,所以在一些高要求的环境里,这种情况根本就不允许存在。 还要说明的地方是,在有些厂商和有些产品的概念里,lun id被绑定到了具体的device上,比如ibm的一些带库,整个带库只有一个target id,然后changer,tape drive被分别分配为lun0,lun1,lun2.....,但是我们要注意到,这只是产品做了特别设计,也是少数情况。
c、存储和主机的电气独立时代的lun的概念 还有很多新手总是把阵列里面的磁盘和主机的内部磁盘的一些概念搞混淆了。 在磁盘阵列和磁带库大行其道的时代,存储越来越智能化,越来越像一个独立的机器,实际上存储和主机的电气独立本来就是一个必然趋势,俗话说得好,儿大要分家嘛。在存储越来越重要的时代,存储要自立门户是必然的事。 如果我们把存储当作一个独立的主机来看,理解起来就很简单了。我们说到lun的概念的时候,我们就要将分为两个层面。一个层面就是在阵列这个机器的os识别到的范围,一个层面就是服务器的os识别到的范围。这两个层面是相对独立的,因为如果我们把存储当作一个主机来看,那么它自然有自己的device,target,lun之说,而服务器也有自己的device,target,lun之说;另外一方面,这两个层面又是相互关联的,一个阵列的控制系统,大多都有虚拟化的功能,阵列想让主机看到什么样的东西,主机才能看到相应的东西。当然,服务器识别到的最小的存储资源,就是lun级别的。那么主机的HBA卡看到的存储上的存储资源就靠主要两个东西来定位,一个就是存储系统的控制器(target),一个就是lun id,这个lun是由存储的控制系统给定的,是存储系统的某部分存储资源。
d、lun masking,lun mapping 我们有了独立的磁盘阵列用了之后,服务器只要看到存储的控制系统,就有可能使用磁盘阵列的磁盘资源,但是磁盘阵列不可能只为某一个服务器来使用,所以他必须管制主机使用某部分磁盘资源。这个管制分为两个部分:一部分就是lun mapping,类似于绿色通道,就是保证服务器能看到某部分存储资源,一部分就是lun masking,类似于警戒线,就是保证服务器只可访问给它分配的存储资源,而没分配给服务器的资源,就不要染指了。 实现lun masking和lun mapping有三种方法:一个是基于存储控制系统来设置,一个是基于存储交换系统来设置,一个是基于服务器os来设置。 基于存储控制系统得设置,是比较常见的设置,比如很多磁盘阵列的控制系统,本身就能设置lun被某服务器看到。比如FastT的partition功能。 基于存储交换系统的设置,也是一种常用的方法,比如常说的zoning。 基于服务器os的设置,比较少采用,一般采用安装某些操作系统上安装某些软件来实现,因为这个方法全靠服务器自觉,所以比较少用,呵呵。
e、lun的multi-path 现在,存储网络越来越发达了,一个lun有多条通路可以访问也不是新鲜事了。 服务器使用多个HBA连接到存储网络,存储网络又可能是由多个交换设备组成,而存储系统又可能有多个控制器和链路,lun到服务器的存储网络链路又可能存在着多条不同的逻辑链路。那么,必然的,同一个physical lun在服务器上必然被识别为多个设备。因为os区别设备无非用的是总线,target id,lun id来,只要号码不同,就认为是不同的设备。 由于上面的情况,多路径管理软件应运而生了,比如emc的powerpath,这个软件的作用就是让操作系统知道那些操作系统识别到lun实际上是一个真正的physical lun,具体的做法,就是生成一个特别的设备文件,操作系统操作这个特殊的设备文件。而我们知道,设备文件+driver+firmware的一个作用,就是告诉操作系统该怎么使用这个设备。那么就是说,多路径管理软件从driver和设备文件着手,告诉了操作系统怎么来处理这些身份复杂的lun。 3、关于备份(Backup)和高可用性(High availability) 备份,从字面的意思来理解,其实就是现时存在和应用的一个实体的后备实体; 高可用性,即是指我们硬件的环境、设施、数据、应用系统等,在复杂环境下可用的能力和可能性达到一个较高的值; 在现实世界里,我们都讲究有一个稳定,可靠,所以我们经常在计算机环境设计里,涉及到高可用性和备份等等元素。 我首先把这两个词拿出来说,就是不想让新手们在什么双机热备,数据备份亚,集群等等概念里晕的不也乐乎。
对于备份我主要说说以下几个方面: a、设备的备份 设备的备份,也就是我们在现时使用的设备之外,采取相同或者类似的设备做后备。 比如我们在服务器上采用冗余电源,也叫后备电源,我们使用单独的硬盘来做RAID的备用盘,也叫热备盘。 如果我们采取单独的一台服务器来做后备,这就成了主机的备份,主机的备份有很多种方式,比较著名的就是所谓的cluster,所谓的双机热备和双机容错,我很不喜欢鼓捣这些概念,我一概称他们为主机热备,因为他们有一个共同的特点,就是都是为了实现主机的备份,即某一个主机失效了,有另外一个主机顶替它来运行。实现主机热备的软件有很多,比如IBM的HACMP,HP的MCSG,SUN的sun cluster,Compaq的Ture Cluster,Veritas的VCS,EMC的autostart,ROSE HA等等 b、数据的备份 数据的备份,就是我们在现时使用的数据之外,实现或设置另外一份不同物理体现的、内容相同的的有效数据拷贝 比如我们将生产数据拷贝到磁带上,就是一种数据备份方式。 比如我们将生产数据复制到磁盘的另一个分区,另一个文件系统,或者拷贝到别的主机的磁盘上,等等,都是一种数据备份的方式。 实现数据备份的软件有很多,比如一些磁带操作的小工具,tar,cpio等,大的工具软件有什么EMC Networker, Symantec Netbackup,CommVault,tapeware等等,数据复制的工具就更多了,操作系统的复制命令呀,emc replicator呀,srdf等等 c、应用系统的备份 应该说应用系统的备份,包含了以上两种备份,因为一个完善的应用系统,其设备和数据都是要求有备份的,那么初次之外,做为一个应用系统,除了设备和数据,他还包含了业务程序,人员,业务逻辑,外部环境等等一系列让应用跑起来的东西。 在这个层面,就有一个比较热火的东西,那就是常说的远程容灾。远程容灾,就是在生产系统环境之外,在相隔较远的物理空间,构建相同或类似的一个应用系统,以达到在必要的时候顶替原生产系统工作的目标。 要实现远程容灾的目的,除了我们说的外部环境,比如机房,电力,后勤保障,人员配备,业务程序之外,我们比较着重的一个环节,就是数据的问题,也就是我们在两个系统之间要保证数据的相对一致,实现这个目标的方法有很多,比如磁盘阵列之间的卷复制,比如两个主机之间文件系统上的复制,等等。当然,在一个系统里,把数据用磁带导出来,快递到另外一个系统地点,在用磁带把数据导进取,也不能说不是一个办法,但是这样操作,经常会和业务的逻辑相违背(呵呵,这么麻烦又耽误时间,估计一般很难接受)。
对于高可用性,我要说的是: 可用性,即是指在各种复杂环境下,我们的数据,应用等计算资源都可以保持使用的能力和可能性。比如服务器配备冗余电源,就提高了服务器的可用性,好理解,一个电源工作不正常或者能力不够的是候,服务器不受影响嘛。再比如,我们的磁盘阵列采用双控制器,当某个控制器和链路工作不正常的时候,数据的访问能平滑的过渡到另外一个控制器上和链路上,这也是提高了数据和存储设备的可用性。 那么什么是高可用性呢,我们就是一切为了提高系统可用性的实现方法和结果。 要拿出来说的就是cluster,或者双机什么的。我们为了实现生产的应用系统的高可用性,其中一个环节就是实现服务器的高可用性,就是某服务器失效或者能力不足时,应用能平滑的过渡到另外的主机上,也就是说对于应用系统来说,服务器保证了相对的可用 那备份和高可用性有什么区别呢? 那我要说,这根本没有可比性!因为这是两个不同的概念,他们的着眼点是不同的。备份只是保证了有后备,而高可用性则是为了保证应用的尽快恢复。 打个比方,我们说备份就好比买保险,买保险不能保证你平安无事,但是肯定能减轻损失。我们说搞可用性,就是安全气囊,ABS,能让你快速的重新开始或者说将危险消弭于萌芽时刻。 所以说我们做备份和提高可用性,两手都不可放松,也不互相矛盾。就好比买了好车,你就不买保险,或者你买了保险,就可以飙车,都是愚蠢的。
===================================================================================
LUN详解(原创)
LUN概述
LUN的全称是Logical Unit Number,也就是逻辑单元号,是SCSI中的概念。 我们用Target ID(也有称为SCSI ID的)来描述这些设备,设备只要一加入系统,就有一个代号,我们在区别设备的时候,只要说几号几号就ok了。 早期的SCSI系统采用3个ID,一个SCSI总线上只能接驳8个设备,除了SCSI控制卡占用了一个ID外,只剩7个设备号可用。尽管SCSI以后采用了4位ID,扩展到了16个设备,但对于现代的存储设备,这种个位数的ID识别号显然不够用。目前生产环境上多产用RAID技术来规划存储,通过RAID组合后的磁盘不再能看到单独的磁盘信息,而是变成了一个巨大的存储空间。古老的RAID技术只能将此存储空间整体分配,被指定了一个LUN后,成为了一个“逻辑”磁盘,供接驳的计算机使用。鉴于上述种种原因,于是我们引进了LUN的概念,也就是说LUN ID的作用就是扩充了Target ID。每个Target下都可以有多个LUN Device,我们通常简称LUN Device为LUN,这样就可以说每个设备的描述就有原来的Target x变成Target x LUN y了,那么显而易见的,我们描述设备的能力增强了,同时也能对存储空间内的磁盘进行单独的管理。就好比,以前你给别人邮寄东西,写地址的时候,可以写:xx市人民大街54号 xxx(收)但是自从高楼大厦越来越多,你不得不这么写:xx市人民大街54号xx大厦518室 xxx (收)所以我们可以总结一下,LUN ID不等于某个设备,只是个号码而已,不代表任何实体属性,在我们的实际环境里,我们碰到的LUN可能是磁盘空间,可能是磁带机,或者是media changer等等。 LUN就是我们为了使用和描述更多设备及对象而引进的一个方法而已,一点也没什么特别的地方。
还要说明的地方是,在有些厂商和有些产品的概念里,LUN ID被绑定到了具体的Device上,比如IBM的一些带库,整个带库只有一个Target ID,然后changer,tape drive被分别分配为LUN0、LUN1、LUN2…,但是我们要注意到,这只是产品做了特别设计,也是少数情况。
存储和主机的LUN概念区别 在磁盘阵列和磁带库大行其道的时代,存储越来越智能化,越来越像一个独立的机器,实际上存储和主机的电气独立本来就是一个必然趋势,俗话说得好,儿大要分家嘛。在存储越来越重要的时代,存储要自立门户是必然的事。如果我们把存储当作一个独立的主机来看,理解起来就很简单了。我们说到LUN的概念的时候,我们就要将分为两个层面。一个层面就是在阵列这个机器的OS识别到的范围,另一个层面就是服务器的OS识别到的范围。这两个层面是相对独立的,因为如果我们把存储当作一个主机来看,那么它自然有自己的Device、Target、LUN之说,而服务器也有自己的Device、Target、LUN之说;另外一方面,这两个层面又是相互关联的,一个阵列的控制系统,大多都有虚拟化的功能,阵列想让主机看到什么样的东西,主机才能看到相应的东西。当然,服务器识别到的最小的存储资源,就是LUN级别的。那么主机的HBA卡看到的存储上的存储资源就主要 靠 两个东西来定位,一个就是存储系统的控制器(Target),一个就是LUN ID,这个LUN是由存储的控制系统给定的,是存储系统的某部分存储资源。
LUN masking,LUN mapping和Zone
我们有了独立的磁盘阵列用了之后,服务器只要看到存储的控制系统,就有可能使用磁盘阵列的磁盘资源,但是磁盘阵列不可能只为某一个服务器来使用,所以它必须管制主机使用某部分磁盘资源。实现这种管制的主要技术有:LUN mapping,LUN masking和Zone。
LUN masking
LUN masking是指LUN与主机HBA卡的WWN地址绑定,与主机HBA卡建立一对一或多对一的连接和访问关系。无论主机跳线到同一个FABRIC(无 zone设置)的哪一个端口上,主机都能识别到相同的LUN。存储设备一般默认在卷和主机间建立多对一的对应关系,即一台主机可访问存储设备上的多个卷。 每块磁盘都在一个队列里,磁盘分区也能被分配成LUN。当多台计算机在同一时间访问同一磁盘时将会导致磁盘数据的混乱。如果你应用LUN masking,那么一个单独的RAID将被分到多个逻辑磁盘上,这些磁盘都分配给了指定的计算机。通过LUN masking,只有特定的LUN才能被特定的SCSI卡访问。不仅是SCSI接口的磁盘阵列,由于FC实际使用的也是SCSI协议,因此较新的FC磁盘阵列也可有提供LUN masking功能。被划分完的LUN设备会属于一个Host Group中。同一Group中的FC卡,能访问这个Group中的LUN,而不能跨越Group访问指派给别的Group的LUN 逻辑单元数掩码(LUN masking)是以独立磁盘冗余阵列(RAID)为中心的,在一个端口掩码多个LUN的加强型方法。LUN masking在存储控制器级别上进行 主机HBA的WWN绑定,因此存储控制器能够将不同LUN划分给一个或多个主机,可以提供LUN级别的访问控制。
LUN masking也允许磁盘存储资源在多个独立服务器之间共享。单个的大容量RAID设备可以划分子模块,之后通过带LUN masking功能的SAN光纤通道连到RAID上的不同主机上,提供服务。所以,只有一个或者有限的服务器可以看到LUN (例如,磁盘薄片,部分,单元), 可对RAID设备中的每个LUN进行限制。
但并不是所有的RAID设备具有LUN masking能力,这样,为了设置LUN masking, 一些HBA厂商允许在驱动器级进行持久绑定(persistent binding)。
LUN MappingLUN Mapping是LUN与存储设备的主机端口进行绑定,工作站连接不同的主机端口时所能访问的LUN不同。当一个存储系统同时为多个应用系统提供数据存储服务,且不同应用系统的主机分别处于不同的地理地址时,有可能用到第二种LUN Mapping方式。即将不同的LUN与不同的存储主机端口绑定,不同的主机端口与不同的FC交换机或者不同的ZONE连接,从而实现不同的工作站只能访问不同的端口。一个LUN Mapping中所对应的LUN和存储主机端口(WWPN)成为一个分区。由于存储设备的主机端口数量是一定的,如果划分的LUN Mapping分区越多,分区中存储主机端口就会越少。存储设备的冗余链路连接功能就越小,当一个分区里只能设置一个主机端口时,存储就失去了冗余链路连接功能,整个系统极易因存储主机端口和交换机端口的故障而发生单点故障。 当系统无FC交换机,主机与存储设备的主机端口直连时,通过LUN Mapping实现起来LUN分区非常方便。当所有主机端口都连接到同一个FABRIC时,就需要与 FCswitch的ZONE结合起来一起使用,来实现数据通信的隔离。不同厂商对LUN Masking和LUN Mapping的定义和解释不完全相同。有的甚至就定义成一个名称,如SAN SHARE,而有的存储干脆就没有LUN Masking和LUN Mapping功能。
ZONE
在早期的SAN方案中,服务器大多是同种操作系统,SAN环境下的安全性问题并不突出。但是现在的方案中,异种操作系统并存的需求比比皆是,多套磁盘阵列 子系统或具有多个主机接口的磁盘阵列子系统也很常见。为了保证SAN正常工作,不互相破坏数据。基于FC存储交换机层面的Zoning 分区划分,可以有效提供一种解决方案。这样服务器只能访问同一分区内的设备,提高设备访问的安全性.很多用户将Zoning 分区和LIP 隔离混淆,认为Zoning 就是LIP 隔离,实际情况为两者是不同的概念。当FC 存储交换机遵循FC-AL协议工作时,一般所有的设备之间协商AL_PA地址(或常说的Loop_ID),这个过程我们称为环路初始化(LIP)。SAN上有任何新的设备启动都会引起LIP,这时所有的机器停止工作进行地址协商,因此LIP会使系统中断工作.当 FC存储交换机遵循FC-SW协议工作时,需要特殊的服务来确保SAN正常工作,与上面所说LIP相类似的一个服务就是RSCN。设备做完Fabric Login后会向交换机登记许多信息,当该设备关闭或重新启动时就会引起登记状态的改变,RSCN服务就是负责将登记状态改变信息通知SAN上的所有设 备。可见,LIP和RSCN都对SAN的正常工作造成破坏,对于一些特殊关键应用甚至是致命的,如视频流应用和磁带库备份应用。根据FC-AL协议标准,LIP一般需要15毫秒,而遵循FC-SW 协议的RSCN根据实际的SAN环境的复杂程度,甚至影响正常通讯达数秒。对于不具备LIP隔离功能的交换机,在解决RSCN 影响问题时,只能靠Zoning 分区的方法使一个分区的设备对其他分区的设备减轻冲击。但是,在视频流应用的实际测试效果来看,仍然对正常通讯的设备性能造成了较大的影响.进行zone划分有两种方式:
1.基于端口的Hardware Zoning(硬件分区)划分,可以产生直观、清晰的逻辑划分,在实践中被大量使用。
2. Software Zoning(软件分区)方法,即基于WWN (World Wide Name) 进行分区。不过,软件分区在实际使用中较少使用.
FC SWITCH上的ZONE功能类似于以太网交换机上的VLAN功能,它是将连接在SAN网络中的设备(主机和存储),逻辑上划到为不同的区域内,使得不同区域中的设备相互间不能FC网络直接访问,从而实现网络中的设备之间的相互隔离。
Zoning分区可具有以下特点:a. 分区可以重叠、同一设备可属于不同分区b. 分区可以在设备运行时动态划分c. 使不同的操作系统可以在一个SAN里共存
假设两台FC交换机通过级连线连接成一个fabric。红色区域的交换机端口属于ZONE 1,绿色区域属于zone 2,蓝色区域属于zone 3,橙色区域既属于zone 1又属于zone 3,白色为扩张端口区域,不需要定义zone。在这两台FC交换机组成的fabric中,凡是红色区域zone 1中的设备之间都可以相互访问,但是不能访问绿色区域和蓝色区域中的设备,但可以访问橙色区域中的设备,因为橙色也属于zone 1。蓝色区域与红色区域相似。绿色区域zone 2中的设备之间只能可以相互访问,别的任何区域的设备。橙色区域中的设备既可以访问红色区域中的设备,又可以访问蓝色区域中的设备,但不能访问绿色区域中的设备。按照中方法,无论存储系统的结构有多么复杂,都可以通过画图的方式把LUN、存储设备主机端口,交换机端口和工作站之间的关系分析清楚。
LUN masking和Zone比较
由上文可以知道,LUN masking和zone的功能都是将特定的LUN划分给特定的主机来实现数据隔离,这两项技术的具体区别如下:
1、交换机里面那个隔离的功能叫Zoning,该功能能做一些隔离和访问限制,但是是基于端口层次的。如果要把一个端口连接的多个LUN区别对待,Zoning就不行了,就得靠阵列控制器里面的Lun Masking功能了。例如,通过同一个端口连接的LUN需要分配给多个主机,那么就需要Lun Masking。
2、LUN masking是在存储控制器或者HBA卡上进行的,可以控制主机访问特定的LUN。Zone
发生在SAN中的交换机上,他将不同的存储正列和主机划归到不同的zone中。
3、 zone是通过交换机端口的强制物理的隔离masking是逻辑隔离,物理没有隔离。在多台服务器连一台或者多台存储用。存储设备有很多,主机不同应用有很多,OS有很多 时,zone能很好的隔离数据。 根据前文所述,LUN masking和只能 主机HBA卡建立一对一或多对一的连接和访问关系, 如果在一个LUN对应多台主机的共享存储架构中,则只能通过zone来实现。 LUN Masking的层面是逻辑的阵列内部,ZONE的层面除了一个设备以外,还有多个设备,而多个设备的情况下,显然这个存储的LUN Masking不能给另外一个存储用。 如果交换机未划分zone那么连接到该换机的主机将可任意访问连接到该交换机的LUN。同时在交换机上划分多个zone也可以有效防止当单个zone失效的时候,影响到其他zone! 因此当主机或者存储特别多的时候,zone就变得很有意义。
4、划分zone还一方面是 FC协议本身的问题,在出现意外的情况时,会产生RSCN公告,大量的RSCN时会影响到正常使用,影响NameServer的正常工作,和响应 Fabric Login,通过HardwareZone隔离设备是ZONE的功能之一。也正是因为这样,我们划分ZONE的原则是Single HBA ZONE。现在交换机都采用FC-SW协议了,以前老的loop协议的时候产生LIP,产生LIP会让数据中断。
参考至:http://baike.baidu.com/view/541220.htm
http://bbs.chinaunix.net/viewthread.php?tid=586064
http://club.techtarget.com.cn/showtopic-45530.aspx
http://www.loveunix.net/viewthread.php?tid=108984
http://bbs.chinaunix.net/thread-8937-1-1.html
http://space.doit.com.cn/18911/viewspace-1997.html
http://www.sanduel.com/SAN-Storage-FAQs/What-is-LUN-Masking.html
http://storagetrendz.blogspot.com/2008/06/lun-mapping-persistent-binding-lun.html
http://technet.microsoft.com/en-us/library/cc758640%28WS.10%29.aspx
http://searchstorage.techtarget.co.uk/answer/LUN-masking-or-LUN-zoning-Which-one-is-a-better-fit-for-a-SAN-fabric?ShortReg=1&mboxConv=searchStorageUK_RegActivate_Submit&
本文原创,转载请注明出处、作者
如有错误,欢迎指正
带你走进服务器的世界看个明白
第1章 如何学习Linux
要想学好任何一门学问,不仅要眼睛看,耳朵听
还要动手记,勤思考,多交流甚至尝试着去教会别人
第2章 服务器
2.1 运维的基本职责:
网站的数据不能丢
网站7*24小时运行
提升用户体验
要求服务器稳定性比普通家用机高。 运维人员的原则:简单,易用,高效
2.2 大家工作的主战场
功能:搭建网站所使用的服务器,相对于其他台式机,笔记本电脑来说,更加稳定,更加可靠。
简介:服务器,也称伺服器(台湾),是提供计算服务的设备。由于服务器需要响应服务请求,并进行处理,因此一般来说服务器应具备承担服务并且保障服务的能力。服务器的构成包括处理器,硬盘,内存,系统总线,和通用的计算机架构类似,但是由于需要提供高可靠的服务,因此在处理能力,稳定性,可靠性,安全性,可扩展性,可管理性方面要求较高。
1U服务器(U表示服务器的厚度)1U = 1.75英寸 = 4.445CM = 4.45CM
4U服务器(U表示服务器的厚度)
对于服务器不了解或者不会的问题可以咨询买服务器的,相信他一定会很乐意回答!
2.3 服务器按外形分类
2.3.1 机架式服务器
机架式服务器的外形看来不像计算机,而像“抽屉”,有1U(1U=1.75英寸=44.45毫米)
2U,4U等规格。机架式服务器安装在标准的19英寸机柜里面。这种结构的多为功能型服务器
2.3.2 刀片服务器
样子就像箱子里,摆放整齐的书
所谓刀片服务器
(准切地说应叫做刀片式服务器)是指在标准高度的机架式机箱内可插装多个卡式的服务器单元,实现高可用和高密度。每一块“刀片”实际上就是一块系统主板。它们可以通过“板载”硬盘启动自己的操作系统,如Windows NT/2000,Linux等,类似于一个个独立的服务器,在这种模式下,每一块母版运行自己的系统,服务于指定的不同用户群,相互之间没有关联,因此相较于机架式服务器和机柜式服务器,单片母板的性能较低。不过,管理员可以使用系统软件将这些母版集合成一个服务器集群。在集群模式下,所有的母板可以连接起来提供高速的网络环境,并同时共享资源,为相同的用户群服务。在集群中插入新的“刀片”,就可以提高整体性能。而由于每块“刀片”都是热插拔的,所以,系统可以轻松地进行替换,并且将维护时间减少到最小。
2.3.3 塔式服务器-更强壮的计算机
塔式服务器(Tower Server)
应该是最容易理解的一种服务器结构类型,因为它的外形以及结构都跟立式PC差不多,当然,由于服务器的主板扩展性较强,插槽也多出一堆,所以个头比普通主板大一些,因此塔式服务器的主机机箱也比标准的ATX机箱要大,一般都会预留足够的内部空间以便日后进行硬盘和电源的冗余扩展。但这种类型服务器也有不少局限性,在需要采用多台服务器同时工作以满足较高的服务器应用需求时,由于个体比较大,占用空间多,也不方便管理,便显得很不合适。
2.4 互联网公司服务器品牌
- DELL(大多数公司,常用)
- HP
- IBM(百度在用)
浪潮
联想
航天联志
2.4.1 Dell服务器品牌
Dell服务器官网链接,点击即可
有疑问问销售
DELL R720
2.4.2 IBM品牌
1U 3550/m3 3550/m5
2U 3650
4U 3850
8U 3950
仅作了解,质量好,但价格贵,互联网公司不太常用
IOE(IBM oracle emc)
2.4.3 HP 品牌
DL380G7/G8(2u)
第3章 电脑和服务器主要构成
一台电脑是由许许多多的零部件组成,只有这些零部件组合在一起协调的工作,才能称之为电脑
电脑发展到现在,零部件都有了很大的变化,但工作原理却没有变化,其中包括主办,CPU
内存,硬盘,显卡,声卡等等。下面将简单的介绍组成电脑的各个零部件
3.1 机箱
3.2 电源
功能:保障电脑的电源供应
作用:一个合格的电源对电脑的作用是至关重要的,电源就犹如人体的心脏,随时提供新鲜的血液,即使再聪明的头脑或再敏捷的身手也离不开电脑电源。劣质的电源不仅直接影响电脑的正常使用,对主板,显卡等其他配件造成损害,而且这种电源所产生的电磁辐射,对人体健康也构成了潜在的威胁。在服务器领域,电源的作用更加重要,因此,服务器一般都提供双电源(双冗余电源)。保障电源供应,要选择质量好的电源。生产中一般单个服务器核心业务最好使用双电源AB线路。如果集群(一堆机器做一件事情)的情况可以不用双电源
因此,服务器一般都提供双电源(双冗余电源)数据和7*24
3.3 主板
主板和CPU都是电脑中最关键的部件。
所有的板卡必须通过主板发挥作用,主板性能和质量的好坏直接影响到整个系统。
电脑主板按不同的架构标准和各种不同的主要部件,接口组合而成。
右边中间:处理器
右边下:内存条
左边中:电池
左边下:硬盘接口
3.4 CPU(中央处理器)
功能:也就是负责运算和控制的控制中心,是电脑的最关键部位,是计算机的头脑。
作用:相当于人的大脑一样,在计算机中进行的任何操作(数据的输入,存储,程序的运行,屏幕的显示
结果的打印)都在CPU的控制下完成的。CPU比计算机中任何部件都更能决定计算机的工作速度和效率
双CPU时,只能同时装同一型号的。CPU是服务器性能效率的最核心部件。 常见品牌:Intel,AMD
一般的企业里的服务器,CPU颗数2-4颗,单颗CPU是4核。内存总量一般是16-256G(32G,64G)
做虚拟化的宿主机(eg:安装vmware的主机),CPU颗数4-8颗,内存总量一般是48-128G,6-10个虚拟机
3.5 CPU风扇
功能:为CPU降温
作用:如果一开机CPU的温度就很高,时间长了搞不好就是一缕黑烟
然后你上千大元的CPU就完蛋了,所以,选一个好的风扇是十分重要的
3.6 主板芯片组
主板芯片组是主板上最重要的部件,主板的功能主要取决于芯片组
芯片组负责管理CPU和内存,各种总线扩展以及外设的支持
3.7 BIOS 芯片
BIOS (basic input output system)芯片(CMOS 芯片),负责主板通电后各部件自检,设置,保存,一切正常后才能启动操作系统。记录了电脑最基本的信息,是软件与硬件打交道的最基本的桥梁,没有它电脑就不能工作。
常见的三种BIOS,Award,AMI,Phoenix
3.8 总线扩展槽
总线扩展槽,按功能分为内存插槽,PCI/ISA扩展槽,AGP,PCL,PCLE显示卡插槽等。
各类I/O接口,软硬盘,键盘鼠标,打印机,USB(通用串行总线),COM1/COM2等。
3.9 硬盘
磁盘就是永久存放数据的存储器,磁盘上也是有缓存的(芯片)
常用的磁盘(硬盘)都是3.5英寸的(ide,sas,sata)
常规的机械硬盘,读取(性能不高)性能比内存差很多
所以在企业工作中,我们才会把大量的数据缓存到内存,写入到缓冲区
这是当今互联网网站的解决网站访问速度慢的方案。
磁盘接口或类型:IDE,SCSI,SAS,SATA,SSD(电子的),IDE,SCSI退出历史舞台
性能与价格:SSD(固态)>SAS>SATA
磁盘的大小
1byte=8bit 1K=1024byte 1M=1024K
1G=1024M 1T=1024G 1PB=1024T
字节(byte):8个二进制位为一个字节(B)
市面上卖硬盘的都是按1000计算,号称500G硬盘=5001000B1000KB*1000MB
功能:硬盘简单的说就是一个大容量存储器,文本,音频等各种数据,成为现代电脑不可缺少的配件
作用:由于计算机在工作时,CPU,输入输出设备与存储器之间要大量地交换数据
因此,存储器的存取速度和容量,也是影响计算机运行速度的主要因素之一
特别是在服务器优化场景,硬盘的性能是决定网站的性能的重要因素
绿盘
优势:安静,价格低
缺点:性能差,延迟高,寿命短
黑盘
优势:高性能,大缓存,速度快。
用途:主要用于企业,高性能计算应用,诸如多媒体视频和照片剪辑,高性能游戏机
蓝盘
优势:性能较强,价格较低,性价比高
缺点:声音比绿盘略响,性能比黑盘略差
红盘
优势:性能特性与绿盘比较接近,功耗较低,噪音较小,能够适应长时间的连续工作
用途:常用语Web服务器
笔记本硬盘
常见的硬盘类型及接口
3.10 内存条
CPU和磁盘之间的缓冲设备,是临时存储器(存放数据),断电数据丢失。
一般程序运行的时候会被调度到内存中执行,服务器关闭或程序关闭之后,数据自动从内存中释放掉。
片===硬盘===程序
播放片===被运行起来的程序===进程
没完没了播放片==(住院)==一直在运行的程序===守护进程
程序:c/php/java,代码文件,静态的,放在磁盘里的数据。
进程:正在运行着的程序,进程运行就是系统把程序放在内存里执行
守护进程(daemon):持续保持运行着的程序。
程序和进程的区别:
电影放在磁盘里就是程序
看片放到内存里就相当于进程
计算机重启,内存的数据会释放掉
功能:内存是电脑的一个临时存储器,它只负责电脑数据的中转而不能永久保存
它的容量和处理速度直接决定了电脑数据传输的快慢,和CPU,硬盘一起并称为电脑的三大件。
作用:内存是CPU能够直接访问的存储器,CPU从内存中读取操作指令和数据,又把运算或处理送回内存。
小结:
解决了cpu与硬盘之间速度的差距问题
内存是一个临时存放地点,使用时候才会放入到内存中。
断电后内存中内容消失
企业应用:大并发写入案例(抢红包,微博)
高并发,大数据量,写数据会把数据写到内存,积累一定的量后,然后再定时或者定量的写到磁盘
(减少磁盘IO Input/Output 磁盘读写),最终还是会把数据加载到内存中再对外提供访问
特点:
a,优点:写数据到内存,性能高速度块(微博,微信,SNS,秒杀)
b,缺点:可能会丢失一部分在内存中还没有来得及存入磁盘的数据
解决数据不丢的方法:
a,服务器主板上安装蓄电池,在断电瞬间把内存数据回写磁盘
b,UPS(一组蓄电池)不间断供电(持续供电10分钟,IDC数据IPS 1小时)
UPS (Uninterruptible Power
System/Uninterruptible Power Supply)
即不间断电源,是将蓄电池(多为铅酸免维护蓄电池)与主机相连接
通过主机逆变器等模块电路将直流电转换成市电的系统设备
c,选双路电的机房,使用双电源,分别接不同路的电,服务器要放到不同的机柜,地区
对于并发不是很大,数据也不是特别大的网站,读多写少的业务,会先把数据写入到磁盘
然后再通过程序把写到磁盘的数据读入到内存里,再对外通过读内存提供访问服务
小结:
门户极端案例:高并发,大数据
先把数据写到内存,然后再定时或定量写到磁盘,最终还是会加载到内存
特点:
a,高并发写入性能高
b,可能会丢失一部分在内存中还没来得及存入磁盘的数据
中小企业案例:
并发时很大的网站会先把数据存到磁盘,然后再通过程序把数据读入到内存里,在对外提供访问服务温馨提示:
网站优化的核心就是想办法把数据放入内存提供服务,或者让用户写数据写到内存(这样最快)
3.11 显卡
功能:显卡的作用就是提供对图像数据的快速处理,显卡也是电脑的重要组成部件之一
而且也是换代最快的一个部件,目前很多3D游戏对显卡的要求都很高,因此我们不得不掏钱从新买一块更新换代
3.12 光盘驱动器
功能:听歌,看牒,装软件,用游戏光碟打游戏等等
不过,服务器一般都是网络安装或者U盘安装系统软件
因此,越来越多的电脑不配光驱了
3.13 DELL阵列卡(RAID卡)
基本作用:
你有很多土地
单独管理不方便
整合,然后管理
网站数据量很大的时候,单块盘装不下了,购买多块盘,又不想单个盘存放数据
就需要工具把所有的盘整合成一个大磁盘,再在这个大磁盘上在分区(虚拟磁盘)方数据
另外一大功能,多块盘放在一起可以有冗余(备份)
RAID有很多种整合方式,RAID 0 1 5 10
有RAID卡后,一般磁盘就会插到RAID卡上,而不是直接插到主板上了
互联网公司服务器一般都会购买RAID卡(主板自带,独立RAID卡),RAID卡上也是有缓存的
冗余从好到坏:raid1,raid10,raid5,raid0
性能从好到坏:raid0,raid10,raid5,raid1
成本从低到高:raid0,raid5,raid1,raid10
3.13.1 不同RAID级别的企业应用举例:
根据数据的存储和访问的需求,去匹配对应的RAID级别。====>适用于互联网公司
单台服务器,很重要,盘不多,系统盘raid1
数据库/存储服务器,主库raid10,从库raid5/raid0(为了维护成本,raid10)
web服务器,如果没有太多数据的话,raid5,raid0(单盘)
有多台,监控/应用服务器,raid0,raid5.
3.13.2 raid0,1,5,10 简要特点描述
Raid 0:追求极致的数据传输速度的磁盘存储解决方案(最快)
速度最快,但安全性最低,一块磁盘出了问题,所有的数据都会损坏且无法修复
Raid 1:追求极致的数据安全的磁盘存储解决方案(最安全)
安全性最高,但磁盘利用率最低,只有50%
Raid 5:追求数据安全和存储成本兼顾的磁盘存储解决方案(比Raid10成本低)
数据读取比较快,但是写入速度一般。磁盘利用率高于Raid1
Raid 10:追求数据传输和数据安全兼顾的磁盘存储解决方案(比Raid5性能高)
Raid10是Raid0和Raid1的组合体。Raid1这里就是一个冗余的备份阵列
而Raid0则负责数据的读写阵列。拥有极高的读写效率和数据安全保护
但是磁盘利用率低,价格比较贵
本文转自 2012hjtwyf 51CTO博客,原文链接:http://blog.51cto.com/hujiangtao/1933100,如需转载请自行联系原作者
从科幻灵感开始的一场数据存储基础设施实验之旅
在过去的这个假期里,我深深地体会到了经典科幻电影迷们的那种情感,尤其是当我准备将各种各样无记录的部件组装成一台复杂的存储系统的时候,这种情感从未如此强烈。在那段时间,我就是彻头彻尾的Dr. Cal Meacham(出自1955年上映的经典科幻电影This Island Earth),但是我却没有“Metalunan”(同样出自该电影的角色)来帮我做记录工作。抛开做一些“排序”工作或者其他一些电影中提到的工作不谈,我也不是很确定我的这项发明能够用来存储数据。但不管怎样,我在这个项目中时刻保持着激情。
背景故事
我的测试环境包括两台互为集群的DataCore SANsymphony服务器,其实它早就变成了一台连接各种设备并用于各种测试的外部存储——从USB到eSATA以及Fibre Channel(FC)。每块StarTech.com eSATA板子都达到了它们的极限,它们的硬盘通过DataCore经过虚拟化处理后被放到了存储池中,并平均分给了那两台服务器。通过复制功能,保证两边硬盘上的数据始终是一致的。随着2016年的研究项目进入尾声,我认为是时候去重新考虑下数据存储的架构了,让这堆零散的东西变得更有意义,在新的一年发挥更大的作用。
在这个假期里,一个朋友跟我说他们的公司正准备淘汰一批Promise Technology的阵列——准确的说是3台——通过iSCSI、FC和SAS连接的。他表示如果我想到话,可以将这些阵列用在我的那台存储架构的服务器上,既能实现“垃圾回收”,又能升级我的系统。我确实很想要这批设备,所以在圣诞节的前几天,他开着拖车出现在了我的公寓门口。
当他迫不及待地卸下了那批货物并转身离开的时候,我知道我的生活将会随之改变。每台设备都很重,很显然里面包含了来自不同厂商的TB级和500GB的SATA硬盘,以至于让我、我的朋友以及我未成年女儿的男性朋友合力才能搬到我的办公室里。
“下周我会打电话给你询问下事情的进展,”我的那位朋友在离开的时候急匆匆地说。
卷1:搭建
几乎如他所预见的一样,像我这种智力有限的人是没法完成interocitor测试的。但就像处于科幻电影黄金时代的Meacham一样,我在最开始就预见到了这件事:我购买了3个坚固的架子并用来放置设备:分别为12,12和16台机柜。此前我从来没想到几百TB的数据会如此沉重。
目测来看,这些设备上没有iSCSI接口,但是却有两个FC和1个SAS。更为重要的是,每台机柜在开机之后都会产生巨大的噪音,整个办公室就像飞机库一样。
当决定了如何放置这些设备之后,我开始着手清理电源上的风扇,同时考虑如何为它们提供充足的电力和网络连接,为的就是把这一整套设备放在100英尺(加上两堵墙)的存储室内,和我工作的地方隔离开来。机柜和服务器之间的连接也是一个令人头疼的问题。
卷2:挑战
计划是这样的:将放在外置eSATA、USB以及iSCSI存储上的数据转移到通过新设备搭建的虚拟存储池中。为了实现这个计划,我需要将新阵列连接到服务器上,通过DataCore对其进行格式化并建池,然后将数据拷贝过去,这样之后才能将之前的设备全部淘汰掉。
这是我遇到的第一个挑战。我的服务器上没有多余的HBA插槽了,不管是FC还是SAS。从eBay的搜索结果来看,我需要为每块HBA提供一个PCIe x16的槽位。而我的服务器有两个插槽,一个用在了声卡上,另一个则用在了作为集群灾备的两端口的FC板卡上。eSATA需要一个PCIe x1插槽,还剩下一些看起来不错但是比较过时的32位PCI插槽。其实我可以从Association of Service以及Computer Dealers的供应商那里买到极为便宜的HBA卡,或者从eBay也可以,但前提是我得有多余的插槽。
长话短说,最大的设备居然是一块被某人出于某种原因翻新过的FC控制器。我之所以发现这件事,还是在新年过后和一位来自Promise Technology的技术支持的聊天中,我顺带脑补了这样一个场景:我摇着他的头问道:“你就不能从Promise买一块最新的VTrak吗?”
卷3:收尾
我需要进行很多测试来验证控制卡移植的可用性。但不管怎样,一块SAS和一块FC都被我丢下了。我也可以将FC控制器集成到SAS中,进而将它转换成一个FC设备。这也使得我可以将每台存储设备连接到服务器上的任何一个HBA的FC端口上。或者,我也可以买一台二手的Brocade FC交换机,从二手市场购买的话既可以便宜80刀,还能保证所有连线都是安装好的。
不管采用哪种办法,我的interocitor测试平台最后都搭建起来并开始运行了,而且在很短的时间里,所有的存储架构都将被进行虚拟化,所有那些4硬盘的小阵列进而都会被淘汰掉。好吧,也许是我下次需要更多活动空间的时候才会考虑将它们都扔掉。
下一步就是为整个平台部署一套Strongbox Technologies的Strong LINK软件,同时添加一套LTO-5或者更好的带库存储设备来运行Linear Tape File System。这样一来,那些极少被访问的数据就会被自动迁移到带库中了。
我花了不到几百美元的钱搭建了一套不错的存储架构,而且还可以定期对其进行扩展。这就是我所谓的特殊的圣诞假期。在此感谢Metalunans给我的启示。
*Interocitor,1955年科幻电影中的智力测试设备
本文转自d1net(转载)