vSphere部署系列之08——共享存储管理

简介:

vSphere部署系列之08——共享存储管理


接上一篇《vSphere部署系统之07vCenter管理ESXi主机》,继续在vCenter中对ESXi主机进行设置,本文主要是存储连接管理方面的操作。


实验环境总体规划,请见前面的博文《vSphere部署系列之03——实验环境总体规划》。


 wKiom1ehtGuxRr7ZAALXJy2rt0w113.png-wh_50

▲总体规划网络拓扑图



一、前期工作


存储通常是虚拟化中最关键的部件,使用共享存储,不同的服务器能够访问同一个虚拟机磁盘文件。vSphere的很多高级功能都要依靠共享存储,比如说vMotioin、主机群集等。vSphere支持的存储设备主要有:NFS,iSCSI,光纤通道等。本案中使用CentOS6.5作为存储服务器模拟ISCSI磁盘提供给vSphere环境使用。


在前面的工作中,已为ESXi主机创建了用于连接存储的标准交换机网络iSCSI及VMkernel端口组(Vlan244)。在接下来的操作之前,需要先在服务器sqst01(操作系统为CentOS6.5)上配置iSCSI Target,操作比较简单,最关键的命令只有三条。在此不作展开。



二、添加iSCSI存储器


下面是vCenter中为esxi01主机添加共享存储的操作。

大致思路是:先在ESXi主机添加虚拟的iSCSI网络适配器、并启用iSCSI功能,然后把这个虚拟的iSCSI网络适配器绑定到ISCSI网络上,最后添加iSCSI目标服务器LUN,并对其进行VMFS格式化。


本案是在vSpherer Client连接vCenter Server的主界面中进行。

在主界面“主机和集群”列表中,选中esxi01主机,

在“配置”->“存储器”中,可查看该主机当前的数据存储情况。

在“配置”->“存储适配器”中,可查看该主机当前的存储适配器情况。


 wKiom1ehtkqhHNvRAAB14WgXltM733.png-wh_50

▲esxi01当前的数据存储情况

当前有OS-241021和DT-241021两个本地存储,具体配置请见《vSphere部署系统之04——ESXi的安装和配置》


 wKioL1ehtp2h_y56AACv7yffQKg946.png-wh_50

▲esxi01当前的存储适配器情况,单击“添加”链接,将会弹出“添加存储适配器”对话框


本案中,物理服务器上没有安装iSCSI适配器卡,需要通过软件iSCSI适配器来实现存储连接。

初始安装中,ESXi主机默认没有软件iSCSI适配器,需要手动添加。


1、添加存储适配器


 wKioL1ehtyKBhAfiAABJRKUudto971.png-wh_50

▲添加存储适配器对话框


 wKiom1ehty6DuERWAAB9rnSBucI813.png-wh_50

▲软件iSCSI适配器对话框,单击“确定”以完成添加


 wKioL1ehtz_hSu4wAAC9PBi9aCw078.png-wh_50

▲在存储适配器中可看到新添加的iSCSI Software Adapter

选中该iSCSI适配器,单击“属性”链接,将弹出iSCSI启动器属性对话框


 wKiom1eht1WiAGDPAADCCJasQ9Q090.png-wh_50

▲iSCSI启动器属性对话框

注:由于该iSCSI适配器是是客户端,因而又叫iSCSI启动器(initiator)。


 wKiom1eht2PTKtq9AAEF2f5PB1U666.png-wh_50

▲iSCSI启动器属性,切换至“动态发现”选项,单击“添加”按钮,弹出“添加发送目标服务器”对话框,在里面设置iSCSI服务器IP及端口号。

如果iSCSI Target中配置了CHAP密钥,则在此处也需要进行CHAP配置。本案中,没启用CHAP。直接单击“确定”完成即可。


wKiom1ehuASQ0NIxAADDDrvL5wc905.png-wh_50

wKioL1ehuASwZGmWAABlAEb5V1o033.png-wh_50

▲在关闭iSCSI启动器属性对话框时,会提示是否要重装扫描适配器,这里单击“是”


 wKioL1ehuC6jdHT8AADL3lB5qhk003.png-wh_50

▲在iSCSI Software Adapter属性->“设备”页面中,可看到挂载了iSCSC设备

注:这里看到的LUN 0 和LUN 1,前者表示整个磁盘(在CentOSk中看到的sdb),是array controller,在后述添加存储器的操作中是不可见的;后者是该磁盘中被划分出来的存储对象,如果有多个存储对对象,将会按数字编号排下去。


到此iSCSI存储适配器配置完成,接下来需要到配置->“存储器”中添加并格式化iSCSI Target发布的磁盘空间。这要才能成为ESXi可用的存储空间。


2、添加存储器


以下操作过程,与添加本地存储的操作,是类似的。


 wKiom1ehuFqQmEQOAACwqHc171A635.png-wh_50

▲存储器页面,单击“添加存储器”将弹出“添加存储器”对话框


 wKioL1ehuGvxnraQAACKotHP1NY401.png-wh_50

▲添加存储器对话框,选择“磁盘/LUN”


 wKiom1ehuIfiHxJLAACMeDC1sdg768.png-wh_50

▲选择磁盘/LUN,在右侧会显示出当前可以添加的磁盘

这里看到的,便是先前通过动态发现添加的LUN。


 wKioL1ehuJiRh3JDAACBLIDNdBs545.png-wh_50

▲文件系统版本,选择“VMFS-5”文件系统

这一步,实质上是要对挂载的磁盘按VMware系统文件格式进行格式化


 wKiom1ehuK2jhHrfAACJbHsx3PY757.png-wh_50

▲当前磁盘布局,显示了当前磁盘所有可用空间的情况,当前硬盘约为1TB,硬盘为空白,


 wKiom1ehuo_Qhu4cAABzzcSiYrI299.png-wh_50

▲属性,在“输入数据存储名称”文本框中,输入要添加的数据存储名称,该名称将会添加在当前ESXi主机中。


 wKioL1ehuqCDh3NUAAB94kZA8lA734.png-wh_50

▲格式,指定数据存储的最大文件大小和容量

如果此次没有使用全部可用的空间,剩余的空间可作为另一个存储器被添加。


wKiom1ehutKAKvZlAACUVFPNMp8009.png-wh_50

wKiom1ehuriD0VCoAADYUDd_Lg0489.png-wh_50

▲添加存储之后,在“配置→存储器”右侧可以看到添加的存储


至此,esxi01上顺利完成共享存储的添加。对端iSCSI硬盘空间已被vCenter格式化并挂载,此时,该共享存储可被vCenter中同数据中心的、带有(软件)iSCSI适配器的所有主机识别,并自动添加。


按上面的方法第一步,为esxi02添加iSCSI Software Adapter,添加完成后,在其配置->存储器中,可看到esxi01先前添加的共享存储。灰色表示正在添加中,过一段时间后变为黑色便可以使用了。

若没有自动添加、显示,可单击“全部重新扫描”,对存储器进行扫描、检查,或手动另外添加



三、添加NFS存储器


ESXi也可添加NFS存储器。本案中不需要用到NFS存储,下面仅演示一下操作方法,以和添加iSCSI存储作比较。


在下面操作前,需要先在sqst01服务器上安装、运行nfs服务,并设置共享目录 /export。在此不作展开。


添加NFS存储器的操作很简单,步骤如下:


wKiom1ehuy-xxRJ6AADGsqjgh-Y645.png-wh_50


wKioL1ehuy-DS_q-AADG3m5UG0o940.png-wh_50


wKiom1ehuy-BZ_0cAACabAbBbCA028.png-wh_50


wKioL1ehuzCQhUZGAADNXItZVHg857.png-wh_50


添加完成后,在存储器列表中可见。如果不需要了,选择该存储器,右击,在弹出的菜单中是选择“卸载”即可。


从以上的操作可以看出,相比添加iSCSI存储器,少了对该磁盘空间进行格式化的操作。亦即,这里是按磁盘本身的文件系统(NFS,网络文件系统)格式直接挂载使用。NFS存储格式,相比VMFS存储格式,在性能上是要差一些的。因此这种方式很少用于存储虚拟机,更多是用于访问已有的计算资源。


概括而言,NFS是基于网络的共享存储,iSCSI是基于网络的本地存储,前者就是在磁盘柜上分出一块空间共享文件,但不单独分给所有的客户,而后者则将资源分给客户端,由客户端按其系统文件方式进行格式化后使用。


共享存储配置完成后,建议将安装系统需要用到的ISO镜像文件上传到共享数据存储中,方便各ESXi主机使用。操作方法是:在vSphere Client的配置页面、存储器项中,右键单击共享的数据存储。打开数据存储浏览器然后为ISO文件创建一个新的目录。创建完目标目录后,单击上传文件按钮,然后选择ISO文件并上传。



四、关于SAN


SAN即Storage Area Network(存储区域网络),结构有两种:IP SAN与FC SAN


FC SAN是指采用光纤通道(Fibre Channel)技术,通过光纤通道交换机连接存储阵列和服务器主机,建立专用于数据存储的区域网络。其技术已经相当成熟,存储带宽已经发展到10Gbps。


由于FC SAN的高成本使得很多中小规模存储网络不能接受,于是出现了成本低廉的IP SAN。iSCSI(互联网小型计算机系统接口)是一种在TCP/IP上进行数据块传输的标准,基于iSCSI的存储系统直接利用现有的TCP/IP网络,只需要不多的投资便可实现SAN存储功能。


在FC SAN的存储体系中,服务器主机上安装FC HBA适配卡,从而实现主机与光纤交换机之间、主机与存储之间的数据交换。


在IP SAN的存储体系中,存储连接的方式有三种:


第一种是以太网+initiation软件方式。服务器主机使用标准的以太网卡,通过以太网线直接与以太网交换机连接。系统中安装Initiator软件后,Initiator软件可以将以太网卡虚拟为iSCSI卡,接受和发送iSCSI数据报文,从而实现主机和iSCSI设备之间的iSCSI协议和TCP/IP协议传输功能。本案即使用此种方法。


第二种是硬件TOE网卡+initiator软件方式。TOE(TCP Offload Engine)网卡具有可以将网络数据流量的处理工作全部转到网卡上的集成硬件中进行,把系统主处理器CPU从忙于协议处理的繁重的内核中断服务中解脱出来,主机只承担TCP/IP控制信息的处理任务。与第一种方式相比,采用TOE卡可以大幅度提高数据的传输速率。


第三种方法,采取iSCSI HBA卡连接方式。与FC HBA方法类似,在主机上安装专业的iSCSI HBA适配卡,以实现主机与交换机或存储之间的数据交换。与前两种方式相比,这种方式数据传输性能最好,价格也最高。



本文转自Sunshyfangtian 51CTO博客,原文链接:http://blog.51cto.com/sunshyfangtian/1834044,如需转载请自行联系原作者

相关文章
|
3月前
|
存储 固态存储 虚拟化
【vSAN分布式存储服务器数据恢复】VMware vSphere vSAN ESXi超融合HCI分布式存储数据恢复案例
近期,我司处理了一个由10台华为OceanStor存储组成的vSAN超融合架构,其中一台存储闪存盘出现故障,用户取下后用新的闪存盘代替,然后对该闪存盘所在的磁盘组进行重建,导致集群中一台使用0置备策略的虚拟机数据丢失。
74 6
|
存储 网络协议 虚拟化
vSphere共享存储全配置流程
  1、Openfiler的安装 Openfiler 由rPath Linux驱动,它是一个基于浏览器的免费网络存储管理实用程序,可以在单一框架中提供基于文件的网络连接存储 (NAS) 和基于块的存储区域网 (SAN)。
2566 0
|
固态存储 虚拟化 芯片
《构建高可用VMware vSphere 5.X虚拟化架构》——第1章 构建高可用ESXi主机 1.1 物理服务器的选择
对于VMware vSphere虚拟化实施人员以及管理人员来说,可以使用HA等高级特性来实现ESXi主机出现故障后迁移到其他ESXi主机。ESXi主机的稳定性、平均无故障时间在生产环境中是相当关键的技术指标。ESXi主机如何可以称为高可用?
2384 0
|
虚拟化
《构建高可用VMware vSphere 5.X虚拟化架构》——1.6 ESXi主机配置实例
本节书摘来自异步社区《构建高可用VMware vSphere 5.X虚拟化架构》一书中的第1章,第1.6节,作者:何坤源著,更多章节内容可以访问云栖社区“异步社区”公众号查看
1732 0
|
SQL 数据库 数据中心
《构建高可用VMware vSphere 5.X虚拟化架构》——2.6 vCenter Server数据库的备份恢复
至此,完成了vCenter Server数据库的备份恢复操作,针对于数据库的备份操作相当重要,可以采用“计划任务”方式定期对数据库进行备份操作。备份完成后,也需要定期对数据库进行恢复操作检验备份的可用性。
2017 0

相关实验场景

更多
下一篇
无影云桌面