如何选择好的香港虚拟主机
对于不少的新手站长来说,很多都会选择香港虚拟主机,由于其以价格实惠,即买即用的特点,受到了很多企业和站长的欢迎。那么,如何选择好的香港虚拟主机。今天,互联先锋小编就根据自己的经验,总结几点跟大家介绍下。
一、看主机功能
选择香港虚拟主机,功能肯定是我们最先要考虑的问题。需要注意的是其中的磁盘、网络流量、数据库大小等。再根据你网站实际情况选择适合的产品型号。
二、看机房
机房的好坏关系着虚拟主机的速度、性能、和稳定性。宽带如何?安全性如何?有没有超大型的不间断电源和备用发电机都是判断一个机房好坏的重要标准。
三、看技术支持
售后服务是非常重要的一个环节,再好的机房也是会出问题的,虚拟主机出现问题的话能否及时的解决。是不是有7*24的服务,支不支持在线帮助都是你需要留心的。有了这些技术支持的保障之后,才能最大程度的保证你主机空间的正常运行。
《构建高可用VMware vSphere 5.X虚拟化架构》——第1章 构建高可用ESXi主机 1.1 物理服务器的选择
本节书摘来自异步社区《构建高可用VMware vSphere 5.X虚拟化架构》一书中的第1章,第1.1节,作者:何坤源著,更多章节内容可以访问云栖社区“异步社区”公众号查看
第1章 构建高可用ESXi主机
对于VMware vSphere虚拟化实施人员以及管理人员来说,可以使用HA等高级特性来实现ESXi主机出现故障后迁移到其他ESXi主机。ESXi主机的稳定性、平均无故障时间在生产环境中是相当关键的技术指标。ESXi主机如何可以称为高可用?从生产环境来说,ESXi主机所使用的物理服务器硬件配置是高可用ESXi主机的基础,其次ESXi版本也是高可用ESXi主机的另一个重点。
本章介绍如何选择物理服务器、如何对 ESXi 4.1 主机进行升级、如何使用 VMware Update Manager管理升级、如何对ESXi主机进行优化以及常见问题的处理。
1.1 物理服务器的选择
构建高可用VMware vSphere 5.X虚拟化架构对于一个准备实施VMware vSphere虚拟化的企业来说,首要的工作是虚拟化架构的设计,架构设计中一项重要的工作就是运行ESXi主机物理服务器的选择。而如何定义高可用,不同的实施管理人员对它都有不同的理解,作者认为物理服务器硬件配置的合理性是相当关键的环节。
在本节中,将根据作者参与过的虚拟化建设项目来介绍如何为ESXi主机选择合适的物理服务器。
1.1.1 品牌/组装服务器的选择ESXi主机的选择,其本质是物理服务器选择,究竟选择品牌服务器还是组装服务器?这是一个长期争论的问题。作者近几年参与过的项目,无论是虚拟化项目还是其他系统集成项目,物理服务器的选择两者都有,所以先了解一下两者的优缺点。
1.品牌服务器目前市面上品牌服务器主要由IBM、HP、DELL、浪潮、联想等厂商提供,其产品线覆盖高、中、低三个层级,可以完全满足企业虚拟化实施的需求,部分厂商还针对虚拟化推出了专用的服务器,让读者的选择更加灵活。
选择品牌服务器的优点是厂商可以提供良好的售后服务以及相应的技术支持,缺点是初期购买成本较高。
2.组装服务器由于服务器硬件技术的日益成熟,采用组装服务器的企业也不在少数,其灵活的配置和价格优势抢占了部分市场份额。
选择组装服务器的优点是价格便宜,缺点是商家一般只能提供硬件的质保,无法提供更进一步的售后服务以及相应的技术支持。
通过以上分析,作者的建议是:在项目预算充足的情况下,建议选择品牌服务器。但很多项目会遇到预算不足的情况,这只能选择组装服务器,作为实施人员来说,特别需要注意组装服务器硬件配置的合理性。
1.1.2 物理服务器CPU的选择服务器所使用CPU主要由Intel和AMD两大厂商提供,其主流的CPU都已经支持虚拟化技术,那么作为ESXi的主机的物理服务器应该选择什么样的CPU?可以从以下几个方面进行分析。
1.选择Intel还是AMD在服务器领域,很多实施人员都认为:Intel CPU无论从稳定性还是发热量来说都比AMD CPU好,所以物理服务器首选Intel CPU。PC服务器多年来主要使用的是Intel CPU,市场占有率说明了它的优势。与Intel相比,AMD推出服务器CPU时间的确要晚得多,但经过多年的发展,其稳定性差、发热量大等问题也得到了有效解决,目前主流的AMD CPU都能够满足ESXi主机需求。
既然两大厂商的CPU都能够满足ESXi主机的需求,那么主要的问题是在性价比上,相同处理能力的CPU,Intel CPU肯定要比AMD CPU价格高,实施人员可以根据项目预算进行合理的选择。
2.选择多核心CPU目前物理服务器使用的CPU核心大多是2核或多核的。作为ESXi主机使用的物理服务器,多核心是必须的,核心越多, ESXi主机可以分配给虚拟机vCPU数量就越多。
Intel Xeon E3系列CPU可以提供4核心处理能力,作为入门级ESXi主机的CPU选择,其性价比相当不错。
Intel Xeon E5系列CPU可以提供4核心(或多核心)处理能力,对于大规模用于的ESXi主机来说,双Intel Xeon E5 CPU是主流的选择。
AMD Opteron 41XX/42XX系列CPU可以提供4核心处理能力,作为入门级ESXi主机的CPU选择,其性价比相当不错。
AMD Opteron 62XX系列CPU可以提供6核心(或多核心)处理能力,与Intel Xeon E5 CPU进行比较,在价格上具有不少的优势。
3.选择CPU支持的高级特性VMware vSphere虚拟化架构中的部分高级特性需要CPU支持,比如HA、FT等高级特性并不是每款CPU都支持的。在虚拟化项目设计选择CPU的时候,一定要考虑今后是否需要使用这些高级特性,以便选择对应的CPU。如果选择的CPU不能支持虚拟化高级特性,后续升级硬件所产生的问题是比较多的。
1.1.3 物理服务器硬盘的选择服务器可以使用的硬盘种类繁多,传统的有SAS硬盘、SATA硬盘以及目前相当流行的SSD硬盘。作为ESXi主机的物理服务器究竟应该选择什么样的硬盘,一直没有统一标准,每种类型的硬盘都具有它的优缺点。
1.SAS硬盘SAS 硬盘分为 2.5 英寸和 3.5 英寸两种,此类硬盘转速快,可以达到 10000r/min 或15000r/min,数据的读写具有相当的优势,但单块硬盘容量较小,主流的为300GB和600GB两种。
主流SAS硬盘采用的是SAS 2.0标准,接口速率为6GB。
2.SATA硬盘老标准SATA硬盘不适合用于服务器长时间工作,后来各大硬盘厂商陆续推出了企业级SATA硬盘,让大容量SATA硬盘用于服务器成为可能,主流的SATA硬盘容量可以达到2TB或者更高,但7200r/min的硬盘转速对数据的读写是最大的缺点。虽然各大硬盘厂商也推出过10000r/min的高转速SATA硬盘,但由于技术上的不成熟,导致硬盘故障率较高。这种故障率高的硬盘不适用于服务器。
主流SATA硬盘采用的是SATA 2.0或STAT 3.0标准,SATA 2.0接口速率为3GB,SATA 3.0接口速率为6GB。
3.SSD硬盘最近几年相当流行的新型硬盘,摈弃了传统机械硬盘使用的磁头和盘体读写方式,使用闪存芯片作为存储空间,其优点是读写速度快且发热量小,缺点是单块硬盘容量较小,容量大的SSD硬盘可能超过一台普通服务器的价格。
主流SSD硬盘采用的是SSD 2.0标准,接口速率为6GB。
读者可以根据以上优缺点结合企业的实际情况进行选择。
作者在参与过的项目中,服务器选择SAS硬盘是主流,此类硬盘技术成熟,平均无故障时间很低,即使硬盘出现问题修复的成功率很高,在一定程度上保证了数据的安全性。由于SSD硬盘的流行,服务器选择SSD硬盘的也不在少数。作者最近一年多参与的项目中不少服务器使用的是SSD硬盘。作者觉得SSD硬盘的价格降低后,可能逐渐成为主流,但不能忽视由于使用闪存芯片,SSD硬盘出现故障修复率是相当低的。
1.1.4 物理服务器阵列卡的选择服务器所使用的阵列卡种类繁多,其质量参差不齐,VMware官方为保证ESXi主机的稳定性,在ESXi安装光盘中,通常会集成通过VMware官方认证的阵列卡驱动,一些小厂商或杂牌的阵列卡驱动则不会包含在安装光盘中。使用未经过认证的阵列卡在安装过程中可能会出现系统无法识别阵列卡情况,从而导致无法检测到硬盘出现安装中止的情况。
作者在虚拟化实施项目中经常遇到因为阵列卡问题导致的ESXi不能安装的情况,而这种情况通常发生在组装服务器中。组装服务器在选择阵列卡的时候,一定要访问VMware官方网站查询硬件兼容性列表,选择大厂商主流型号的阵列卡产品,确保选择的阵列卡在VMware官方支持的范围内。
当然,也有通过将一些品质较低的阵列卡驱动重新封装到ESXi 安装光盘再安装成功的案例。作者不建议在生产环境下的ESXi主机使用此方法,不在VMware官方支持的硬件范围可能会导致ESXi主机在运行过程中出现故障。
1.1.5 物理服务器网卡的选择对于ESXi主机网卡的选择,我在《VMware vSphere 5.0虚拟化架构实战指南》一书中多次提到网卡的重要性,建议大家选择Intel和Broadcom两大厂商的网卡,这两大厂商的网卡是VMware官方推荐的,其稳定性、传输速率也相当好。
需要注意的是,ESXi 5.0/5.1安装光盘可以识别两大厂商大部分网卡,但还是存在部分网卡不能识别的情况,这时需要手动安装网卡驱动程序,具体的安装过程参考1.7.3节内容。
在项目实施过程中还需要注意物理服务器网卡的数量,目前主流物理服务器集成4个千兆以太网口,同时主板还具有1个或多个PCI-E扩展插槽,读者可以根据实际情况增加网卡的数量。
文章
固态存储 · 虚拟化 · 芯片 · 内存技术
2017-05-02
vCenter6.0配置一:配置分布式交换机
本文将介绍vCenter 6.0的分布式交换机的创建和配置,其实整个过程和vCenter 5.5基本上差不多。主要步骤为:创建分布式交换机、迁移虚拟机网络、迁移物理网卡等。
一、部署环境:
二、配置过程:
1、添加2台ESXi宿主机。
2、确认两台宿主机的两块物理网卡只连了一块,还有一块空闲物理网卡。
3、创建分布式交换机,选择6.0版本。
4、输入名称,因为宿主机只有2块物理网卡,故选择上行链路端口数为2。
5、勾选宿主机空闲的那块物理网卡添加到分布式交换机。
6、完成分布式交换机的创建。
7、在分布式交换机创建虚拟机端口组,命名为VM Network,用于虚拟机连接。
8、迁移虚拟机网络,将标准交换机的VM Network迁移到VDS的VM NetWork。
9、迁移物理网络,将宿主机连接到标准交换机的物理网卡迁移到VDS中。
10、确认宿主机的2块物理网卡都已连接到分布式交换机中
11、确认标准交换机已无物理适配器连接,也无虚拟机连接,这样就完成了分布式交换机的创建和配置,默认的标准交换机已经未在使用,可以直接将标准交换机移除。本文原始出处:江健龙的技术博客http://jiangjianlong.blog.51cto.com/3735273/1825775
本文转自jianlong1990 博客,原文链接: http://blog.51cto.com/jiangjianlong/1825775 如需转载请自行联系原作者
阿里云虚拟主机推出流量包新规格,提速网站访问速度,保证网站一直在线
日前,阿里云虚拟主机宣布推出流量包新规格,产品提供高速流量包,提高网络访问速度。高速流量包用尽后,网站也不会关停,自动降为低带宽模式,保证网站一直在线。
拿目前市场上的虚拟主机产品来说,主要分成几种:
一种是传统的共享虚拟主机,共享型虚拟主机网站访问的资源与同一个服务器的其他站点共享,一般采用每月固定配额流量包的形式,一般为每月几十G流量。优点是价格低,缺点是资源共享容易受其他站点影响,另外每月流量包耗尽后,网站会被关闭,必须充值购买流量后才能开通。
另外有独享型虚拟主机,独享虚拟主机的资源为独占,一般配备独享带宽。缺点是价格高,配置的带宽一般较低,额外购买带宽的话,价格较贵。在有用户访问网站的时候,访问速度容易受带宽上限的制约,而网站无人访问的时候,配置固定带宽又闲置浪费。
另外海外一些虚拟主机服务商推出了号称不限流量(Unlimited)的共享和独享虚拟主机,但在其服务条款中却有诸多限制:如超过一定CPU使用,连接数和IO吞吐之后,会关停虚拟主机,实际上并不能保证网站一直在线,而且相关技术参数限制较多。
对此,阿里云专门针对以上几种产品的缺点推出了流量型独享虚拟主机,产品配备高额峰值带宽(最高10Mbps),提供大额的流量包(最低200G,最高1500G),在流量包的额度之内网站会运行在高速峰值带宽,而流量耗尽后,网站进入保底带宽对应的低速模式(1Mbps),不关停网站,保证网站能够一直在线。同时由于独享虚拟主机的资源本身为独享,不会受其他用户的影响被关停。另外流量型独享型虚拟主机的价格与之前带宽型的独享虚拟主机相比,价格并未上涨。在活动折扣下更是凸显性价比高的优势。经过阿里云虚拟主机产品团队的研究和调研结果,绝大多数的中小型网站的访问量都不高,但在有用户访问的时候,网站对网络带宽速度的需求是突发型的。在一定流量额度下的高峰值带宽能够更好的满足这种需求,因此流量型独享虚拟主机更适合中小型网站的托管。流量型独享虚拟主机共推出以下四种规格,用户可根据网站运行和自身情况进行选择。
产品规格
CPU/内存
网页空间(GB)
峰值带宽(Mbps)
高速流量(按月,GB)
保底带宽(Mbps)
基础版
1核1G
5
2
200
1
标准版
1核1G
20
3
500
1
高级版
1核2G
50
6
1000
1
豪华版
2核4G
100
10
1500
1
相对于阿里云之前推出的独享虚拟主机带宽型,独享虚拟主机流量型的网络峰值访问速度有了明显提升,其中基础版和标准版均比之前的带宽规格提升了1Mbps,而高级版和豪华版则相对之前(2Mbps)提升了4Mbps和8Mbps,网络访问速度最高提升了400%。阿里云独享虚拟主机流量包新规格是全球第一个将独享虚拟主机和流量包结合的产品,既带有独享虚拟主机的稳定特性,又提升了网站访问速度,同时最低带宽能够保证用户网站一直在线。产品预计在8月底9月初进行发布,上线时还有优惠活动,请及时关注阿里云虚拟主机产品页面
VMware vSphere 5.1 群集深入解析(十七)-DPM计算推荐
第二部分 vSphere DRS(分布式资源调度)
第八章 DPM计算推荐
DPM尝试在一个指定的目标资源利用范围内,保持群集中每一台ESXi主机的利用率,以提供资源可用和电力节省的最佳组合。如果群集内ESXi主机的利用率低于指定的目标资源利用范围,如果认为有必要,DPM将评估并提供关闭主机电源建议;如果DPM资源利用率高于目标资源利用范围,DPM将评估后提供加电建议。
计算资源利用率
DPM评估每个ESXi主机,并计算ESXi主机上CPU和内存的资源利用率是否在指定的目标利用范围内。DPM计算目标利用率范围如下:
目标资源利用范围=需求容量–目标比例±需求容量主机容忍度
资源利用率:DPM基于虚拟机的需求和ESXi主机可用容量计算资源利用率,主机的可用容量减去虚拟化层运行所需的资源后剩余的资源。DPM计算资源需求依照历史时期每个虚拟机的活动加上两个标准差之和,DPM使用不同历史时期的加电建议和断电建议比例,我们将在后面的章节扩展历史时期。
类似DRS,计算需求是在资源争用期间结合的主动使用加上未满足需求,通过在一段较长的时间内使用的历史数据,而不是使用简单的当前活动虚拟机的需求,DPM确保评估虚拟机的需求是代表虚拟机的正常作业行为。使用时间较短可能导致不必要的电源状态改变建议,这不仅影响节电效率,还影响DRS,因为它需要不断改变虚拟机所在的主机环境来平衡资源。
DemandCapacityRatioTarget是ESXI主机目标利用率,默认设置为63%。
主机容忍需求容量比指定了每个主机的目标利用率容忍值,默认是18%
这意味着DPM尝试保持ESXi主机资源利用率在63%最佳,再加上或者减去18%,这样结果在45%和81%之间的范围,63%是基于内部测试和客户反馈的最佳点。如果ESXi主机的每个资源的资源利用率在45%以下,DPM评估断电操作。如果CPU或内存资源利用率超过81%,DPM评估待机状态的ESXi主机加电。
高级选项
在DRS的高级选项中,用户可以指定不同的DemandCapacityRatioTarget 和DemandCapacityRatioToleranceHost的值
DemandCapacityRatioTarget设置在40%到90%之间,DemandCapacityRatioToleranceHost设置在10%和40%。
提示
推荐使用默认的值,除非你深入理解了其影响,才建议去修改该值
高级选项界面,可以发现DRS群集设置,右键单击群集并选择编辑设置。选择DRS和点击右下角的高级选项。
图90:电源操作与主机利用率级别
在供给和需求之间找到一个恰到的平衡是相当困难的,如低估了资源需求可能会导致性能较低,而高估资源的需求可能会导致达不到最佳的功率节省。
历史时期的权益
正如之前所提到的,DPM确定虚拟机在一个历史时期的平均需求来计算需求,DPM使用两个时期的权益来计算平均需求。
DPM使用较短的时间来评估上电建议,允许自己响应快速增加的需求。
上电建议:评估虚拟机的加电操作需要300秒(5分钟)
用于评估和关闭电源的操作,需要较长的时期来确定DPM对于一个减少工作负载的需求响应越来越慢。
关闭电源建议:DPM将使用一个较长的时期来评估关闭电源操作的资源需求,DPM评估过去2400秒(40分钟)内虚拟机工作负载。
DPM必须绝对确保它不会负面的影响虚拟机的性能。为工作负载提供足够的资源,认为通过DPM比快速减少工作量更重要,所以通过DPM性能的优先级高于关闭电源,当审查电源规则和电源操作建议,这将变得可见,电源关闭建议仅适用于以下指定的目标使用范围和没有加电的活动建议。
评估上电和断电建议
如果资源利用率评价表示高或低的资源利用率,DPM产生电源状态建议,以减少目前的资源利用率和目标资源利用率范围之间的距离,换句话说,优化和整理工作负载需求和电力需求。
DRS和DPM评估每个ESXi主机的电源状态建议。为了优化评估和选择过程,主机放置一个特定的顺序进行评估。如果他们可以违反任何的DRS约束,如关联规则或者任何资源预留。
断电建议
在选择ESXi主机断电操作之前,主机选择断电建议,DPM检验群集内活动的主机,评估断电的过程中把它们按照特定的顺序进行分类,如果群集内主机既有DPM自动模式也有DPM手动模式,它们将被分开放到不同的组,在主机的手动模式组被考虑之前,先考虑主机的自动模式组。
如果群集包含均匀大小的主机,DPM考虑主机按照低虚拟机撤离成本;主机内自动模式的少量的小的虚拟机,同组的高负载主机上有较小的虚拟机。
如果群集包含异构大小的主机,DPM考虑为了关键资源的主机,当产生断电建议时,容量较小的主机被垂青的机会大于容量大的主机
主机断电建议
DPM将评估的候选主机和群集内模式使用DRS的候选主机将被断电
DPM使用这些模式,以确定断电操作的影响,DPM检查轻负载的主机的减少的积极收益,
和减少当前利用率和目标资源利用率之间的差距,同时在剩余主机上增加使用率最小化。
为了在目标资源利用范围内来衡量总资源利用率,DPM为CPU和内存资源计算一个值,称之为cpuLowScore和memLowScore值。为了在目标资源利用范围外衡量总资源利用率,DPM通过计算资源的HighScores值,称之为cpuHighScore和memHighScore值。
每个资源所使用的公式是类似的,计算高于或低于目标利用率的加权距离,例如,memLowScore的计算如下:
memlowScore = 所有低于目标利用率主机的总数(目标利用率–主机利用率)
DPM比较群集内所有候选主机的活动负载LowScore值和模式的LowScore值,如果主机内存过量使用时,DPM确定内存是关键资源,将生成内存的建议的优先级超过CPU,如果模式提供改善LowScore,并HighScore值不增加,DPM生成断电建议,这断电建议也包含在这台主机上运行的虚拟机的迁移建议。
拒绝主机断电建议
如果主机违反了最小的供电能力,通过设置MinPoweredOnCpuCapacity 和MinPoweredOnMemCapacity值,DPM不会将主机断电。
表23:高级选项
缺省情况下,设置一个值分别为1MHz和1MB,确保至少一台主机开启电源,如果这些设置被改变,它可能发生DPM和DRS不请求所有的加电的物理资源,来保证虚拟机运行在一个适当的水平。ESXi主机可能会被闲置,导致电源利用率较低。
保持CPU的供电容量可能与CPU特性需求不匹配,如果异构CPU的群集中使用此设置,启用EVC来保证可用的CPU资源兼容所有的虚拟机。
基本设计原则
当群集内调整MinPoweredOnCapacity设置异构CPU和内存设置的时候,请启用EVC。
DPM能基于DRS约束和目标,而不选择特定的候选主机是另外一个原因,例如:如果虚拟机需要迁移并只能移动到主机,主机就有大量的利用,那么主机可以拒绝关闭电源,当群集内多个DRS关联(非关联)规则处于活动状态,这种情况就可能发生。
第三个因素是,DPM能基于负面或者不存在效益,通过运行断电成本/效益分析,不选择候选主机断电,DPM会继续运行模拟,只要群集包含的ESXi主机在目标利用率范围之内。
DPM断电成本/效益分析
在DPM产生断电建议之前,它计算断电主机的成本,考虑的成本如下:
迁移虚拟机时候选主机关闭
电源关闭期间的电力消耗
电源关闭期间的候选主机的不可用资源
如果候选主机资源需要满足工作负载需求,而候选主机被电源关闭的性能损失
上电期间的候选主机的不可用资源
上电期间的电力消耗
迁移虚拟机到候选主机的成本
DPM运行断电的成本/效益分析,比较主机断电操作的成本和风险,如果效益达到或超过对性能的影响,通过设置PowerPerformanceRaito 值,DPM将只接收主机的电源管理建议,
默认的PowerPerformanceRatio的值使40,但是可以在0和500之间修改,用户指定在DRS的高级选项界面设置PowerPerformanceRatio。
和往常一样,除非你了解修改他们的真实影响,通常不建议改变这些设置。成本和收益的计算,包括CPU和内存资源。
关闭电源的成本效益分析计算
断电效益分析计算StableOffTime的值,这表明候选主机预计的关闭电源的时间总量,直到群集需要资源,因为预计会增加虚拟机的工作量。
固定的断电时间 = 群集固定的时间 - (主机评估时间+主机断电时间)
虚拟机工作负载很固定,没有上电操作的需求的时间称之为群集固定时间(ClusterStableTime),DPM将使用虚拟机固定时间,通过DRS成本收益风险分析计算,如输入群集固定时间计算。
从应用断电建议到断电状态所花费的时间,分析把这段时间分成两个部分,计算主机关闭其上虚拟机迁移时间(HostEvacuationTime)和主机断电的时间(HostPowerOffTime)的总和。
断电的成本计算以下预估资源成本总和
从候选主机迁移活动虚拟机到其它主机上
在群集固定时间结束,候选主机上电期间不满足虚拟机的资源需求
迁移虚拟机返回候选主机
最后两个要点只能通过DPM估计,在群集固定时间结束后DPM计算所需主机的数量。这种计算,在一定的程度上,最坏的情况下,DPM预计所有的虚拟机在群集固定时间结算后产生沉重的负载,从而生成一个保守值。
正如前面所提到的,DPM只会推荐一个断电操作,如果在资源利用效率上有一个显著的增益,可能是由于群集固定时间太低,这可能会导致一个固定断电时间等于或者小于零,在这种情况下,DPM将停止评估候选主机的断电操作建议,因为它不会提供任何好处。
上电建议
主机选择上电建议
类似于断电建议,在ESXi主机在手动模式或者上电建议之前,ESXi主机在自动模式下先被评估,群集包含异构主机,有较大容量ESXi主机在关键资源上会被使用
如果排序过程中发现主机遵从容量或者评估成本,DPM将使顺序主机随机化,做一个穿透效果,请注意,排序的主机上电和断电的建议,并不确定实际的上电或者断电主机选择顺序。
主机上电建议
如果资源利用率评估表面主机在群集中利用率很高,DPM考虑生成主机上电建议。
在选择ESXi主机上电之前,DPM检查群集内的待机模式主机,为DPM电源评估过程进行特定的排序。
DPM继续评估每一个维护模式主机,调用DRS来运行模拟,模拟分配当前虚拟机穿过所有的主机,无论他们是活动还是待机,通过使用HighScore计算,DPM决定当前使用率下上电操作的影响,如果必要决定,对比目标利用率和资源利用率的距离,或者从高利用率主机上有多少可以降低,需要它决定每次上电操作有多少才能改善。DPM对比群集当前状态(待机仍然关闭)HighScore值和模拟的HighScore值,当待机主机上电,如果模拟提供的值高于HighScore值,DPM将为特定的主机生成上电建议。
另外,如果一些操作将导致选择主机容量离需要的容量较远,DPM不会严格坚持的主机的顺序,如果小容量的主机能充分满足需求,一些时候主机将不会被选择,如果DPM预计候选不能模拟还原。
例如,如果因为兼容性不可能迁移特定的虚拟机去候选主机,模拟还原就不能达到。
DPM继续运行模拟只要群集内的主机超过目标利用率的范围,DPM在同构的群集中非常有效,DPM将跳过相同资源的主机或者兼容性的迁移那些在模拟期间已经拒绝上电操作的主机。
基本设计原则
使用同构群集,DPM会运作非常有效率。
高级设置对主机加电建议的影响
高级选项能设置指定最小数量的CPU和内存的容量的主机仍被保持上电,而不管DPM建议。
如果用户设置在高级选项中设置客户值,MinPoweredOnCpuCapacity 和MinPoweredOnMemCapacity,DPM必须调整上电操作建议来实现需求定义这些设置。
与断电建议相反,在不包括上电建议的上电主机上重新分配虚拟机,为了满足需求,DPM依靠DRS调用。
建议类别
DPM门槛
DPM门槛浮动工资类似于DRS浮动。像DRS,门槛选项范围从保守到激进,DPM建议优先级别能被对比DRS优先级别。
DPM激进级别同激进级别DRS进行通信,产生的DPM建议提高到5,类似的,DPM保守级别同激进级别的DRS通信,选择保守级别门槛引起DPM去产生优先级1建议。接下来警告会被显示在浮动门槛下,当保守的DPM级别被选择。
警告
“应用优先级1的建议.vCenter将应用上电建议产生与HA的需求或者指定用户的容量需求,DPM将只自动接收上电建议。
在这个场景中,DPM将不会生成断电建议,这样做的意思是自动DPM电源节省模式禁用,用户可能手工将服务器置于待机模式,但是当群集满足HA或者客户容量需求或者约束失败DPM不会上电ESXi主机。
主级别
断电和上电建议从优先级1到优先级5范围内都被标记了优先级
优先级等级是基于群集的资源利用率和从建议改善主机电源状态,它可能有提示不同的范围被接受上电建议比断电建议:断电建议从优先级2到优先级5,同时上电建议从优先级到优先级3.
表24:电源状态推荐优先级别范围
断电建议
高级别的优先级建议会导致更多的电源节省,如果建议被接受。高优先级2的断电会导致最大的减少余量,当应用级别5的断电建议将导致适度减少余量,优先级1建议不生成断电建议,同时为工作负载需求提供足够的资源被DPM认为比快速响应较少工作量重要。
上电建议
当确认VMware高可用需求或者用户设置上电资源,优先级1被生成,上电优先级2比级别3表现得更迫切的建议解决高主机利用率饱和级别。
请注意,生成的迁移建议不是强制性的,如果DRS设置了保守的迁移门槛,忽略这些迁移建议,将有效的禁用DPM。
基本设计原则
如果DPM请求,否则不要设置DRS为保守的迁移门槛
本文转自 tim2009 51CTO博客,原文链接:http://blog.51cto.com/virtualbox/1204363,如需转载请自行联系原作者
巧用VSphere-HostPorfile配置ESXi主机 --"瑞友杯"虚拟化征文
巧用VSphere-HostPorfile配置ESXi主机 --"瑞友杯"虚拟化征文VMware VSphere 允许将一个主机的"配置"存在一个Profile 中,我们制作好标准的Profile 后,当再加入新ESXi主机时,可以直接套用这个Profile在新的ESXi主机上,新ESXi主机将按照这Profile配置自动进行配置, 节省大量时间避免重复配置操作非常方便实用。
Profile 中一般包括网络配置或者存储设备的配置(还有其它配置,不过我目前用的最多的是这两项),例如网络配置:这里新上线的ESXi主机需要更改vswitch0 虚拟交换机中的NetworkLabel 由VM Network 变更为 Int_Network
,并且还需要再添加一个虚拟交换机vswitch1,NetworkLabel 为Ext_Network。
下面的内容包括:1 创建Host Profile2 附(添)加其它的ESXi主机或集群3 检查4 总结
1 创建Host Profile1.1 创建前的准备工作
以此ESXi主机"配置"为标准,其它ESXi主机将按照这台ESXi主机(配置)自动进行配置。需求:新上线的ESXi主机需要更改vswitch0 虚拟交换机中的NetworkLabel 由VM Network 变更为 Int_Network;
//还需要再添加一个虚拟交换机vswitch1,NetworkLabel 为Ext_Network。
1.2 开始创建Host Profile在 Vcenter -> ESXi Host -> 右键 -> Host Profile -> Create Profile from Host
//Name 为 profile 名称。
//Description 为描述内容,可以看出我这里主要是对网络进行配置。
1.3 查看创建的Host Profile
在 Vcenter -> Inventory -> Management -> Host Profiles
//进入Host Profiles后,在Summary 选项中可以看到更详细的配置信息,如名称/ESXi版本/描述/时间/项目配置等等。
2 附加(添加)其它的ESXi主机或集群2.1 附加(添加)前的准备
ESXi主机或集群在附加profile 前,需要先进入维护模式。
//Enter Maintenance Mode2.2 附加到Host Profile在 Vcenter -> Home -> Inventory -> Management -> Host Profiles -> Hosts and Cluster -> Attach Host/Cluster
选择目标ESXi主机
//Attach注意:反过来如果要退出则使用 Detach,不过不会删除已经添加的配置如:已完成网络配置。
应用Profile 。
//ESXi主机单击右键。
//提示将更改配置。
//任务栏显示apply 任务。最后退出维护模式,Exit Maintenance Mode 完成。3 检查在 Vcenter -> ESXi Host -> 右键 -> Host Profile -> Check Compliance
注意:最下面的任务栏中的状态
//查看是否完成网络配
//ESXi 主机 summary
4 总结:
对于批量加入ESXi主机时,使用Profile 可以节省大量时间避免重复配置操作非常方便实用。
结束
更多请:
linux 相关 37275208
vmware 虚拟化相关 166682360
本文转自 dongnan 51CTO博客,原文链接:http://blog.51cto.com/dngood/1026402
SCVMM网络虚拟化配置软件定义网络SDN
软件定义网络(SDN)是Windows Server 2012 R2引入的一个特性,通过在云中进行网络虚拟化,可以在任意节点部署任意的虚拟机,而不用考虑IP地址的冲突,尤其是应用在多租户的场景下。软件定义网络需要结合SCVMM来实现,而租户申请虚拟化网络需要使用到Windows Azure Pack。
首先我们来了解先网络虚拟化的一点概念,网络虚拟化是采用通用路由封装(GRE)对网络进行封装和隧道,这是由微软、英特尔、Arista网络、 HP、戴尔和Emulex共同提出的一个标准。GRE 是适合大多数当前和未来数据中心的首选网络虚拟化方法。
本次部署环境中采用了三台物理服务器,每台服务器均有两块网卡,接入到交换机中。如下图所示,其中两台Cloud01与Cloud02为虚拟机放置服务器,Cloud03为虚拟化网关服务器。
首先创建两个逻辑网络,依次展开构造,网络,逻辑网络。创建Public与Tenant两个逻辑网络,并创建好相对应的地址池,这两个逻辑网络将作为虚拟化网络的前后端使用,如下图。
接下来打开Tenant逻辑网络的属性,勾选上允许在此逻辑网络上创建的新VM网络以使用网络虚拟化。
接下来我们要为逻辑交换机创建端口配置文件,如下图所示创建三个端口配置文件,这将在后面分别应用到租户网络、公用网络和虚拟化主机网络的逻辑交换机中。
创建Public、Tenant、VM三个逻辑交换机,并添加刚才创建的上行配置文件,其中Public、Tenant是用于网关通讯,VM是租户虚拟机放置使用。
接下来在Cloud03上分别创建一个Tenant和Public两个逻辑交换机,这是用于Gataway主机租户网络与公共网络通讯。
完成逻辑交换机创建后,打开Cloud03的硬件属性,可以看到网络适配器中的两块网卡已经绑定了对应的逻辑交换机。
打开Cloud03主机访问,勾选上“此主机是专用网络虚拟化网关,因此不可用于放置需要网络虚拟化的虚拟机”
接下来打开Hyper-V服务器Cloud01的属性,添加VMSwitch的逻辑交换机,这是一台虚拟化放置主机,所以添加该逻辑交换机。
然后在Cloud03主机上安装一个mgmt01虚拟机,该服务器是用于做网关,并启用两个网卡,分别接入Public与tenant逻辑交换机。
完成mgmt01安装后,启用远程访问与路由服务。
下面开始添加虚拟化网关,在VMM控制台,打开构造,网络,在网络服务右键选择添加网络服务。
进入添加向导,输入网关名称,如下图。
由于中文版的BUG不显示,型号菜单下拉后选择Microsoft Windows Server Gateway Provider。
填入连接字符串,如下图
完成配置后进行测试,如下图通过测试。
选择用于虚拟化网络服务的主机组,完成配置。
完成配置后,右键刚才创建好的网关,打开属性,打开连接选项配置前后端的网络连接。
本文转自李珣51CTO博客,原文链接:http://blog.51cto.com/lixun/1391578 ,如需转载请自行联系原作者
文章
SDN · 网络虚拟化 · 虚拟化 · Windows · 数据中心
2017-11-16
手把手教你如何申请网站空间
网站空间就像房屋的地基,对网站运营的影响非常大。在网站还没有发布之前,首先需要考虑存放的空间。选择一个好的空间,在后期的运营中将会省事很多。
下面我会从几个方面介绍,一站式教会你如何申请网站空间。
空间对网站运营的五大影响选择空间需要遵循的六大原则空间的申请及绑定的14个步骤加餐:如何选择虚拟空间和虚拟主机太长不看版(全是精华、知识点)
一、 太长不看版我知道大家的时间都很宝贵,所以非常贴心的准备了「太长不看版」,所有的知识点、重点都在这里。二、空间对网站运营的五大影响1、IP。
对于搜索引擎来说,在同一个IP地址上的网站,相互之间会存在一定的联系。这种联系一般是负面的。
如果你拥有的是独立主机,基本可以不考虑同IP上网站的影响。因为整个服务器都是自己的,自己的网站即使被惩罚也能快速发现,进而进行修改、删除等操作。
最麻烦的情况是你购买的空间上,已经存在或者新发现一些被搜索引擎认为恶意作弊,被SEO加入黑名单的网站。
如果不幸买到这样的虚拟空间,会很坑!你可能花了几个月千方百计做SEO关键词优化,到头来1个自然流量也没有!
为避免出现因为同一IP而被连带惩罚的情况,我建议你在选定虚拟主机之前,用“同IP网站查询工具”对整个IP地址上的网站进行检查,以免被“误伤”。
2、设置错误。
主机设置错误一般出现在维护技术单薄的独立服务器以及一些没有经验的小型虚拟主机供应商身上。如果选择阿里云这类大厂则不会出现这样的错误。
如果你在建站这块是小白,你可能会根据网上的一些非专业文章,对服务器进行千奇百怪的设置,如重新服务器返回代码,将普通网民能正常打开的页面返回信息修改成404等。这样的设置错误对用户来说无所谓,对搜索引擎优化来说就是灾难啊!
3、安全稳定性。
在网络爬虫访问网站时,如果主机死机、无法打开网页,爬虫不会马上在搜索引擎的索引库删除这一页,而是过一段时间再来抓取这个页面。所以一般情况下不用太担心主机空间的稳定性对SEO造成毁灭性的打击。比如,主机空间每月偶尔出现3~5分钟的重启、死机、无法响应等,对SEO来说是无伤大雅的。
反之,如果购买的主机空间极端不稳定,动辄死机一两天,经常无法访问,这种网站,对用户和搜素引擎都会产生不良影响。
4、访问速度。现在的搜索引擎,已经将很多涉及用户体验的参数融入搜索排名的算法,其中“网站速度”就是作为关键词排名算法中的一个因素。
同等情况下,搜索引擎认为网站打开速度越的网站,用户体验越好,给予的排名就会越高;相反,两个关键词排名因素相当的网站,速度越慢,排名就越低。
5、地理位置。主机是有地理属性的,很多国际性的搜索引擎会根据搜索者的不同地域,返回不同地域的网站信息,这时候主机空间的地理属性就会对SEO产生影响。
对中文网站来说,地理位置很重要。比如,在百度中搜索某些关键词,搜索结果往往会返回搜索用户所在地的网站或者信息。网站中搜索“出国留学”,返回的结果中会自然地将“北京留学服务”的排名提前。
三、选择空间需遵循的六大原则对于有固定投入的网站运营者来说,性价比最高的方式是拥有云服务器建立网站。目前全球云服务器已经超过千亿级市场,,诞生了包括亚马逊AWS、阿里云这样的超级云服务器厂商,而且还在迅猛发展中。除了云服务器,还有部分公司采用物理服务器,然后把服务器托管到某个托管中心,利用托管中心的网络带宽为自己的客户服务。不管你是采用服务器托管的方式,还是选择购买虚拟主机的方式建立网站,都要遵循以下原则。
1、安全稳定。对一个网站来说,安全稳定性高于一切,这是网站能提供访问的基本要求。举个例子:潜在用户想登录阿里云购买域名、云服务器或者阿里云建站产品,结果网站三天两头打不开,业绩肯定上不去。在这里我推荐你使用阿里云建站工具云·企业官网来搭建你的网站,它使用SaaS化网站架构,系统持续迭代,保证网站安全稳定。而且迄今为止已经合作了上百家客户,其中不乏饿了么、安鲜达、小CK这些大企业,质量有保证。在选择稳定的主机空间时,一般可以采用分时间的方式,对主机空间销售商提供的测试站点进行有间隔的访问,并且观察在一定时间长度内服务器的稳定情况,并做详细记录。
如何评估主机空间的安全性,可以用下面两种方法。① 如果是购买虚拟主机,可以通过同IP网站查询的方法,找到其他存在于这个服务器的网站信息,你可以问问其他站长同行,了解虚拟主机的稳定情况。②如果是购买独立主机或托管用户,可以通过销售商网站、业务员咨询等渠道,获取“成功案例”、“典型客户”的网站,通过联系这些网站的客服、长期使用者,了解托管机房的大体情况。这样了解到的信息往往都是经过长期使用的有价值的信息。
2、双线高速。在同等价格前提下,不同的网络服务提供商销售的主机空间速度是不一样的。同等价格下,选择更高速的主机。简单的测试方法是利用本地的ping命令,查看即将购买的主机空间的响应时间、速率和丢包情况。【具体方法】在本地计算机的命令行中,输入“ping目标IP-t”命令。
可以看到本地计算机与主机空间的信息交互情况,其中响应时间是很重要的速度判断标准,使用“-t”命令是为持续不断地向服务器发送数据包。如果服务器经常出现请求超时”的返回信息,那说明至少在这段时间内,服务器的稳定性、速度是不够理想的。
3、连接数。“连接数”这个词来源于“并发连接数”。最初,“并发连接数”是指防火墙或代理服务器对其业务信息流的处理能力,是防火墙能够同时处理的点对点连接的最大数目。
随着虚拟主机的盛行,很多虚拟主机商在销售中都加入类似“并发连接数”的限制 ,有的直接就叫“网站访问人数限制”。一般情况下,虚拟主机中的连接数限制就是指允许同时访问网站WEB服务的用户数量。
但是,也有些不良商贩故意混淆概念,号称“不限流量、不限空间”,听起来挺合理,其实却在偷偷限制网站的连接数。这样的结果就是网站的访问人数一多,网站就打不开了。
要获得虚拟主机的连接数限制,只能通过销售商提供的各种“虚拟主机管理软件”进行查看。不过这个连接数也有可能作假,所以,选择一个诚信的虚拟主机供应商非常重要。
4、备份机制。为防止突发情况下网站能够正常运行,不论你是网站运维人员,还是网站推广人员,还是个人站长,只要在运维网站,就必须有一个完善的备份机制。
5、自定义404页面。404页面就是当用户输入错误的链接时返回的页面。页面的目的,是告诉浏览者所请求的页面不存在或链接错误,同时引导用户使用网站其他页面继续访问,而不是关闭窗口离开。在搜索引擎愈加重视用户体验的今天,很多搜索引擎都提供404页面定制功能,目的就是帮助网站所有者更好地留住用户,提升网站粘性。
对于虚拟主机来说,购买之前一定要咨询是否可以自定义404页面,这对于搜索引擎优化、用户行为优化都很有帮助。
对独立主机来说,可以自己定义404页面。
6、服务。不管是虚拟主机空间,还是独立的托管主机,你不可能时时刻刻与计算机进行接触,所以在突发情况下,机房、虚拟主机销售商的服务响应时间尤为重要。
文章
数据采集 · 运维 · 搜索推荐 · 安全 · 算法 · 网络安全 · 定位技术 · UED · 索引 · SEO
2020-09-25
《云安全原理与实践》——3.1 主机虚拟化技术概述
3.1 主机虚拟化技术概述
虚拟化技术经过半个多世纪的发展,已日趋成熟并逐渐得到广泛的应用,成为云计算的基础技术。1959年,在国际信息处理大会上,著名科学家克里斯托弗(Christopher Strachey)发表了一篇名为“大型高速计算机中的时间共享”(Time Sharing in Large Fast Computers)的学术报告。在该报告中,他提出了虚拟化的基本概念,同时这篇文章也被认为是对虚拟化技术的最早的论述。1965年,IBM公司发布IBM7044,它被认为是最早在商业系统中实现的虚拟化。它通过在一台大型主机上运行多个操作系统,形成若干个独立的虚拟机,让每一个用户可以充分利用整个大型机资源,有效解决了大型机资源利用率不足的问题。1999年,由于X86平台已具备高效的处理能力,VMware公司在X86平台上推出了商用的虚拟化软件。这也标志着虚拟化技术从大型机时代走向了PC服务器的时代。现在,随着云计算技术的快速发展,作为与云计算密不可分的虚拟化技术也得到了进一步的发展。越来越多的厂商,包括VMware、Citrix、微软、Intel、Cisco等都加入了虚拟化技术的市场竞争,虚拟化技术在未来将具有广阔的应用前景。3.1.1 主机虚拟化的概念有很多标准组织对虚拟化(virtualization)进行了定义。维基百科对于虚拟化的描述是:在计算机技术中,虚拟化技术或虚拟技术是一种资源管理技术,是将计算机的各种实体资源(CPU、内存、磁盘空间、网络适配器等)予以抽象、转换后呈现出来,并可供分区、组合为一个或多个电脑配置环境。由此,打破实体结构间的不可切割的障碍,使用户可以比原本的配置更好的方式来应用这些电脑硬件资源。这些资源的新虚拟部分是不受现有资源的架设方式、地域或物理配置所限制。虚拟化资源一般包括计算能力和数据存储。开放网格服务体系(Open Grid Services Architecture,OGSA)对虚拟化的定义是:虚拟化是对一组类似资源提供的通用抽象接口集,进而隐藏了属性和操作间的差异。IBM则认为,虚拟化是资源的逻辑表示,它不受物理限制的约束。尽管不同的组织机构对虚拟化有不同的定义,但总的来说,我们可以这样理解虚拟化:虚拟化是对各种物理资源和软件资源的抽象利用。这里所说的资源包括硬件资源(如CPU、内存、网络等),也包括软件资源(如操作系统、应用程序等)。对于用户来说,他只需要利用虚拟化环境来完成自己的工作,而不需要了解虚拟化逻辑资源的内部细节;在虚拟化环境下,用户可以在其中实现与在真实环境下相同的功能或部分功能。主机虚拟化作为一种虚拟化实现方案,旨在通过将主机资源分配到多台虚拟机,在同一企业级服务器上同时运行不同的操作系统,从而提高服务器的效率,并减少需要管理和维护的服务器数量。与传统服务器相比,主机虚拟化在成本、管理、效率和灾备等方面,具有显著的优势。通过主机虚拟化实现方案,企业能够极大地增强IT资源的灵活性,降低管理成本并提高运营效率。
如图3-1所示,主机虚拟化架构通常由物理主机、虚拟化层软件和运行在虚拟化层上的虚拟机组成。物理主机是由物理硬件(包括CPU、内存、I/O设备)所组成的物理机器;虚拟化层软件又被称作Hypervisor或者虚拟机监视器(Virtual Machine Monitor,VMM),它的主要功能是将物理主机的硬件资源进行调度和管理,并将其分配给虚拟机,管理虚拟机与物理主机之间资源的访问和交互。虚拟机则是运行在虚拟化层软件之上的各个客户机操作系统,用户可以像使用真实计算机一样使用它们来完成工作。对于虚拟机上的各个应用程序来说,虚拟机就是一台真正的计算机。3.1.2 主机虚拟化实现方案在基本遵循主机虚拟化架构的前提下,业界主流公司都提出了其主机虚拟化解决方案,其典型代表有:VMware Workstation、Microsoft Virtual PC、Xen、KVM等。1.?VMware WorkstationVMware Workstation是一个基于主机的虚拟机产品,可以在Windows、Linux和Macintosh等主流操作系统上运行。它包含内核VMM、虚拟机扩展驱动VMX和VMware应用程序三个模块,VMM负责虚拟机的创建管理等核心工作;VMX驱动运行在Ring0特权级,辅助VMM完成虚拟机操作系统触发的I/O操作;VMware应用程序运行在Ring3特权级,是VMware Workstation的人机界面。当启动VMware应用程序时,VMX驱动将VMM加载到核心区域,并赋予VMM和VMX驱动Ring0特权级,虚拟机操作系统能够探测到VMX和VMware应用程序,但是无法感知到VMM。VMM可以直接控制处理器内存,或者管理VM与主机通信来完成虚拟机I/O等特殊指令。当虚拟机操作系统或在其之上运行的应用程序执行计算时,虚拟机可以获得处理器的控制权,程序直接在处理器硬件上执行。当虚拟机需要执行I/O操作或者执行敏感指令时,VMM模块就会捕获这些指令并将处理器切换到VMM控制模式,在主机环境中由VMX模块或VM应用模拟执行I/O,必要时由主机操作系统触发真实I/O。由于I/O是由虚拟机操作系统引发,因此执行结果将通过VMM传递回虚拟机。虚拟机的处理器和内存调用基本是靠硬件实现,执行效率高,而I/O操作虚拟环境切换,导致虚拟机I/O性能较低。2.?Microsoft Virtual PC微软公司的Virtual PC是一款基于主机操作系统的虚拟化产品,与VMware Workstation非常类似。Virtual PC可以运行于Windows操作系统和Macintosh操作系统上,在操作系统上支持多个Windows操作系统实例及其应用程序的运行。与VMware相比,Virtual PC有很多不足,如不支持Windows以外的操作系统(Linux、FreeBSD、Solaris等);Virtual PC虚拟机不能修改已经赋予虚拟机使用的虚拟硬件设备,不支持SCSI设备,因此局限性比较大。Virtual PC有一项特殊的功能,允许用户撤销在虚拟磁盘中所做的操作,使虚拟机恢复先前的状态,这在测试中非常有用。3.?XenXen采用半虚拟化技术,需要对操作系统进行修改才能与虚拟机监视器协同工作,这也就使得Xen无需硬件支持就能以较高效率实现虚拟化。在Xen中,虚拟机被称为域(Domain),其中,Domain 0是一个管理域,它作为一个特殊域,可直接访问硬件资源,协助虚拟机监视器完成虚拟机的管理工作,为虚拟机监视器提供扩展服务。与Domain 0相比,普通虚拟机只能访问虚拟硬件资源,我们称之为普通域。虚拟机监视器运行在Ring 0特权级上,Domain 0的内核运行在Ring 1上,它拥有系统I/O等硬件设备,负责向其他域提供虚拟硬件资源。Domain 0作为整个系统的管理平台,可以通过超级调用(Hypercalls,是一种对Hypervisor的调用申请,类似于操作系统中的系统调用)来创建、保存、恢复、移植和销毁普通虚拟机。Xen普通虚拟机(Domain U)不能访问自身之外的任何硬件资源,包括虚拟机监视器拥有的硬件资源,但是可以通过Hypercalls向虚拟机监视器申请各种硬件服务,如内存更新、Domain 0支持、处理器状态等,并且Hypercalls支持批处理调用,即能将Hypercalls集中在一个队列中统一处理,提高系统处理速度。4.?KVMKVM和Xen是两个比较接近的开源虚拟化实现方案,但是它们依然有很多不同。KVM作为一个Linux内核核心模块,已经成为Linux的一个组成部分。KVM虚拟化实现方案充分利用了Linux进程调度算法和内存管理技术,任何Linux内核性能的改进或版本提升均可直接应用于KVM虚拟化实现方案中,从而使KVM虚拟机获得性能上的提高。KVM充分利用了Linux内核模块简单而高效的特点,修改KVM模块无需重新编译Linux内核,只需在Linux中重新加载修改后的KVM模块即可。3.1.3 主机虚拟化的特性在高性能的物理硬件产能过剩以及老旧硬件产能过低的情况下,为了实现硬件资源的合理分配和使用,虚拟化技术应运而生。不同类型的虚拟化技术使软件资源和硬件资源、底层资源和上层资源之间的耦合度降低,资源的利用方式也发生变化。以单个主机资源的利用方式为例,虚拟化前后,主机资源的利用方式发生的变化如图3-2及表3-1所示。
主机虚拟化带来便利的同时也带来了新的挑战,主要体现在如何合理地分配一台物理主机的资源给多个虚拟机、如何确保多个虚拟机的运行不发生冲突、如何管理一个虚拟机和其拥有的各种资源、如何使虚拟化系统不受硬件平台的限制。这些与传统的资源利用的不同正是主机虚拟化技术的特性所在,同时也是服务器虚拟化(主机虚拟化在物理服务器上的实现)在实际环境中进行有效运用需要具备的特性,分别是:多实例、隔离性、封装性和高性能。1)多实例 通过服务器虚拟化技术,实现了从“一个物理服务器一个操作系统实例”到“一个物理服务器多个操作系统实例”的转变。在一个物理服务器上虚拟出多台虚拟机,支持多个操作系统实例,这样就可以把服务器的物理资源进行逻辑整合,供多个虚拟机实例使用;可以根据实际需要把处理器、内存等硬件资源动态分配给不同的虚拟机实例;可以根据虚拟机实例的功能划分资源比重,对物理资源进行可控调配。与单服务器单操作系统的传统的服务器管理模式相比,多实例特性既可以利用有限的资源进行最大化的管理,又可以节省人力资源。2)隔离性 虚拟机之间可以采用不同的操作系统,因此每个虚拟机之间是完全独立的。在一台虚拟机出现问题时,这种隔离机制可以保障其他虚拟机不会受其影响。其数据、文档、资料等集合不会丢失。也就是说,既方便系统管理员进行对每一台虚拟机进行管理,又能使虚拟机之间不受干扰,独立工作。而每个虚拟机内互访问,又可以通过所部署的网络进行通信,就如同在同一网域内每台计算机之间的数据通信一样。3)封装性 采用了服务器虚拟化后,每台虚拟机的运行环境与硬件无关。通过虚拟化进行硬件资源分配,每台虚拟机就是一台独立的个体,可以实现计算机的所有操作。封装使不同硬件间的数据迁移、存储、整合等变得易于实现。在同一台物理服务器上运行的多个虚拟机会通过统一的逻辑资源管理接口来共用底层硬件资源,这样就可以将物理资源按照虚拟机不同的应用需求进行分配。将硬件封装为标准化的虚拟硬件设备,提供给虚拟机内的操作系统和应用程序使用,也可以保证虚拟机的兼容性。4)高性能 服务器虚拟化是将服务器划分为不同的虚拟管理区域。其中的虚拟化抽象层通过虚拟机监视器或者虚拟化平台来实现,这会产生一定的开销,这些开销即为服务器虚拟化的性能损耗。服务器虚拟化的高性能是指虚拟机监视器的开销应控制在可承受的范围之内。3.1.4 主机虚拟化的关键技术在x86体系结构下,主机虚拟化的主要技术包括CPU虚拟化、内存虚拟化、I/O虚拟化以及虚拟机的实时迁移。1.?CPU虚拟化CPU虚拟化是VMM的核心部分,由于内存和I/O操作的指令都是敏感指令,因此对于内存虚拟化和I/O虚拟化的实现都是依赖于CPU虚拟化而完成的。所谓敏感指令,是指原本需要在操作系统最高特权级下执行的指令,这样的指令不能在虚拟机内直接执行,而是交由VMM处理,并将结果重新返回给虚拟机。CPU虚拟化的目的就是让虚拟机中执行的敏感指令能够触发异常而陷入到VMM中,并通过VMM进行模拟执行。在x86体系结构当中,处理器拥有4个特权级,分别是Ring 0、Ring 1、Ring 2、Ring 3。运行级别依次递减。其中位于用户态的应用程序运行在Ring 3特权级上,而位于内核态的代码需要对CPU的状态进行控制和改变,需要较高的特权级,所以其运行在Ring 0特权级上。在x86体系结构中实现虚拟化时,由于虚拟化层需要对虚拟机进行管理和控制,如果虚拟化层运行在Ring 0特权级上,则客户机操作系统只能够运行在低于Ring 0的特权级别。但由于在客户机操作系统中的某些特权指令,如中断处理和内存管理指令,如果没有运行在Ring 0特权级,则可能会出现语义冲突导致指令不能够正常执行。针对这样的问题,研究者们提出了两种解决方案,分别是全虚拟化(Full-virtualization)和半虚拟化(Para-virtualization),两者的区别如图3-3所示。
全虚拟化采用了二进制动态代码翻译技术(Dynamic Binary Translation),这种方法在敏感指令之前插入陷入指令。当虚拟机需要执行这些敏感指令时,会先通过陷入指令陷入到虚拟机监视器中。虚拟机监视器将需要执行的敏感指令动态转换为具有相同功能的指令序列,再交由虚拟机执行。通过这样的方法,非敏感指令由虚拟机直接处理执行,而敏感指令则通过陷入虚拟机监视器进行指令转换后再执行。全虚拟化解决方案的优点是不需要对客户机操作系统进行修改,因此可以适配多种类型的操作系统,但缺点在于指令的动态转换需要一定的性能开销。半虚拟化解决方案则通过对客户机操作系统进行修改来解决虚拟机敏感指令不能正常执行的问题。在半虚拟化中,被虚拟化平台托管的客户机操作系统通过修改其操作系统,将所有敏感指令替换成对底层虚拟化平台的超级调用。虚拟化平台也为这些敏感的特权指令提供了调用接口。形象地说,半虚拟化中的客户机操作系统被修改后,知道自己处在虚拟化环境中,从而主动配合虚拟机监视器,在需要的时候对虚拟化平台进行调用来完成相应指令的执行。半虚拟化解决方案的优点是其性能开销小于全虚拟化解决方案。但缺点在于,由于对客户机操作系统进行了修改,使得客户机操作系统能够感知到自己处在虚拟化环境中,不能够保证虚拟机监视器对虚拟机的透明性。而且半虚拟化对客户机操作系统版本有一定的限制,降低了客户机操作系统与虚拟化层之间的兼容性。上述的全虚拟化与半虚拟化解决方案都属于通过软件方式来完成的虚拟化,但由于两者都存在一定的性能开销或者是增加了系统开发维护的复杂性。为了解决以上问题,产生了通过硬件来辅助完成CPU虚拟化的方式,即硬件辅助虚拟化技术。当今两大主流的硬件厂商Intel公司和AMD公司分别推出了各自的硬件辅助虚拟化技术Intel VT和AMD-V。以Intel VT技术为例,它在处理器中增加了一套虚拟机扩展指令集(Virtual Machine Extensions,VMX)用于虚拟化环境的相关操作。Intel VT技术将处理器运行模式分为根模式(root)和非根模式(non-root)。对于虚拟化层而言,它运行在根模式下。对于客户机操作系统而言,它运行在非根模式下。由于两种运行模式都具备从Ring 0到Ring 3的四个特权级,所以很好地保留了全虚拟化和半虚拟化的优点,同时又弥补了两者的不足。2.?内存虚拟化物理机的内存是一段连续分配的地址空间,虚拟机监视器上层的各个虚拟机共享物理机的内存地址空间。由于虚拟机对于内存的访问是随机的,并且又需要保证虚拟机内部的内存地址是连续的,因此虚拟机监视器就需要合理映射虚拟机内部看到的内存地址到物理机上的真实内存地址。虚拟机监视器对物理机上的内存进行管理,并根据每个虚拟机对内存的需求对其进行合理分配。所以,从虚拟机中看到的“内存”不是真正意义上的物理内存,而是经过虚拟机监视器进行管理的“虚拟”物理内存。在内存虚拟化当中,存在着虚拟机逻辑内存、虚拟机看到的物理内存以及真实物理主机上的内存三种类型,这三种内存地址空间也分别称为虚拟机逻辑地址、虚拟机物理地址以及机器地址,如图3-4所示。
在内存虚拟化中,虚拟机逻辑地址与真实物理主机上的机器地址之间的映射是通过内存虚拟化中的内存管理单元来完成的。现阶段,内存虚拟化的实现方法主要有两种,分别是影子页表法和页表写入法,如图3-5所示。
影子页表法是指在客户机操作系统中维护了虚拟机自己的页表。该页表中保存的是虚拟机逻辑地址到虚拟机物理地址的映射关系,而在虚拟机监视器当中,为每一台虚拟机也都维护了一套页表,该页表中保存的是当前客户机操作系统页表物理地址到真实物理机机器地址的映射关系。在客户机操作系统页表发生改变时,在虚拟机监视器中维护的页表也会随之更新,如同它的影子,所以被称作“影子页表”(Shadow Page Table)。页表写入法是指每当客户机操作系统新创建一个页表时,虚拟机监视器也创建一套与当前页表相同的页表,这个页表中保存的是虚拟机物理地址与物理机机器地址之间的映射关系。在客户机操作系统对它自身所维护的这套页表进行写操作时,将会产生敏感指令并由虚拟机监视器剥夺客户机操作系统对其页表的写操作权限,然后由虚拟机监视器对客户机操作系统页表进行更新,使得客户机操作系统能直接从它自己的页表当中读取到真实物理主机的机器地址。总的来说,影子页表法是一个从虚拟机逻辑地址到虚拟机物理地址再到物理机机器地址的二级映射关系,而页表写入法是一个从虚拟机逻辑地址到物理机机器地址的一级映射关系。但由于页表写入法在虚拟机监视器中需要对每一套虚拟机页表都维护一套页表,因此对系统性能的消耗比较大。3.?I/O虚拟化真实物理主机上的外设资源是有限的,为了使多台虚拟机能够复用这些外设资源,就需要虚拟机监视器通过I/O虚拟化来对这些资源进行有效地管理。虚拟机监视器通过截获客户机操作系统对外部设备的访问请求,再通过软件模拟的方式来模拟真实外设资源,从而满足多台虚拟机对外设的使用要求,如图3-6所示。
虚拟机监视器通过软件的方式模拟出来的虚拟设备可以有效地模拟物理设备的动作,并将虚拟机的设备操作转译给物理设备,同时将物理设备的运行结果返回给虚拟机。对于虚拟机而言,它只能够察觉到虚拟化平台提供的模拟设备,而不能直接对物理外设进行访问,所以这种方式所带来的好处就是,虚拟机不会依赖于底层物理设备的实现。I/O虚拟化的实现主要有全设备模拟、半虚拟化和直接I/O三种方式。1)全设备模拟:该方法可以模拟一些主流的I/O设备,在软件实现中对一个设备的所有功能或者总线结构(例如设备枚举、识别、中断和DMA)进行复制。该软件位于虚拟机监视器中,每当客户机操作系统执行I/O访问请求时,将会陷入到虚拟机监视器中,与I/O设备进行交互。这种方式的体系结构如图3-7所示。如图3-7所示,从上往下依次有客户设备驱动、虚拟设备、I/O堆栈、物理设备驱动和物理设备。其中I/O堆栈主要用于提供虚拟机I/O地址到物理主机地址的地址转换,处理虚拟机之间的通信,复用从虚拟机到物理设备的I/O请求,提供企业级的I/O特性。2)半虚拟化:半虚拟化中具有代表性的是Xen虚拟化解决方案中实现I/O虚拟化的方式。它由前端驱动和后端驱动两部分构成。前端驱动运行在Domain U(其他虚拟机)中,后端驱动运行在Domain 0(特权域)中,它们通过一块共享内存交互。前端驱动管理客户机操作系统的I/O请求,后端驱动负责管理真实的I/O设备并复用不同虚拟机的I/O数据。尽管与全虚拟化设备模拟相比,半I/O虚拟化的方法可以获得更好的设备性能,但其I/O虚拟化的运行机制也会带来更高的CPU开销。3)直接I/O虚拟化:这是指让虚拟机直接访问设备硬件,它能获得近乎宿主机访问设备硬件的性能,并且CPU开销不高。目前,直接I/O虚拟化主要集中在大型主机的网络虚拟化方面,通过直接I/O虚拟化来为虚拟机分配独立的物理网络接口设备,以提高其网络交互能力。但是直接I/O虚拟化成本要求高,在商业大规模推广方面仍面临许多挑战。4.?虚拟机实时迁移虚拟机实时迁移是指在保证虚拟机上服务正常运行的同时,使虚拟机在不同的物理主机上进行迁移。整个迁移过程需要保证虚拟机是可用的,并且整个迁移过程是快速且平滑的,迁移过程对用户透明,即用户几乎不会察觉到在虚拟机使用过程中产生的任何差异。整个实时迁移的过程需要虚拟机监视器的配合来完成虚拟机从源物理主机到目标物理主机上内存和其他数据信息的拷贝。在实时迁移开始时,虚拟机的内存页面和数据信息将不断从源物理主机拷贝到目标物理主机,直到最后一部分位于源物理主机中的虚拟机内存和数据被拷贝进目标物理主机后,目标物理主机上的虚拟机将开始运行,整个迁移过程不会影响源物理主机中虚拟机的工作,如图3-8所示。
利用虚拟机实时迁移技术,可以实现服务器的在线维护、在线升级和动态负载均衡,因此在云计算领域有着广阔的应用前景。3.1.5 主机虚拟化的优势虚拟化是基础设施整合中的重要技术。有了虚拟化技术,一些基础设施(如服务器、网络、存储等)可以被资源池化,并且经过抽象后提供给上层的计算单元,使上层的计算单元以为自己运行在独立的内存空间中,享有独立的网络、存储资源用于服务。同时,虚拟化技术的分区特性使得各种硬件资源被合理、高效地划分给不同的虚拟机;隔离特性使得多个不同虚拟机在同一主机上互不影响计算的效果;封装特性使得虚拟机更方便地迁移和备份;独立于硬件的特性使得虚拟机的配置更加方便。由图3-9可以看出,目前虚拟化的市场还处于起步阶段,是IT行业新兴发展方向之一。图中,虚拟化的市场发展被分为了四个阶段,即降低成本、提高使用率、提高灵活性与更好地使IT配合业务。
总而言之,主机虚拟化的优势主要体现在两方面:增加硬件的利用率以及提高生产率。(1)增加硬件的利用率以CPU的利用率为例,如图3-10所示,在宿主机进行虚拟化之前,主机上CPU的利用率一般在10%以下,偶尔会出现CPU的利用高峰,但是也没有超过30%;在宿主机进行虚拟化之后,宿主机上的4个CPU的利用率均维持在55%~80%,最低利用率也没有小于50%。可见,相较于传统主机而言,主机虚拟化技术极大提高了CPU的利用率。(2)提高生产率主机虚拟化在提高生产率方面的作用可通过以下几个例子来说明:【例3.1】 部署一个新的服务器。若采用传统的服务器架构,需要3~10天进行硬件采购,1~4小时进行系统部署;采用虚拟化架构后,只需要5~10分钟的时间即可采用模板和部署向导初步完成一个系统的部署。【例3.2】 硬件的维护。若采用传统的服务器架构,需要1~3小时进行窗口维护,数天乃至数周进行变更管理准备;采用虚拟化架构后,可以通过虚拟化技术实现零宕机的硬件升级。【例3.3】 迁移集成服务器。采用传统的服务器架构,需要数天甚至数周进行变更管理准备,有时候,迁移能否成功还会受到其他环境因素的影响;采用虚拟化架构后,采用P2V(Physical To Virtual)技术,只需要一个小时左右便可以实现服务器的迁移。
【例3.4】 移动服务器优化负载。采用传统的服务器架构,迁移过程大约需要4~6小时,所有的维护窗口中的服务全部中断,并且需要数天甚至数周的变更准备时间;采用虚拟化架构后,利用虚拟机实时迁移技术,可以在2~5分钟内实现无服务中断的迁移。服务器虚拟化是虚拟化技术中出现时间最早的技术分支,也是虚拟化技术中最为成熟的领域。服务器虚拟化是将虚拟化技术应用于服务器上,将一个服务器虚拟化成若干个服务器使用。服务器虚拟化技术的多实例、强隔离、高性能、封装好等特性保证了它能有效地运用在实际的环境中,独特的优势使其受到很多大型企业的青睐。服务器虚拟化的主要优点可总结如下:1)降低运营成本:服务器虚拟化厂商都提供了功能强大的虚拟化环境管理工具,可降低人工干预的频率,降低IT基础设施的运营成本。2)提高应用兼容性:服务器虚拟化技术所具有的封装和隔离特性使管理员仅需构建一个应用版本,即可将其发布到被虚拟化封装后的不同类型的平台上。3)加速应用部署:采用服务器虚拟化后,部署一个应用通常只需要几分钟至十几分钟的时间,且不需要人工干预,极大地缩短了部署时间,降低了部署成本。4)提高服务可用性:服务器虚拟化技术可以方便地对运行中的服务器进行快照并备份成虚拟机镜像文件,支持虚拟机的动态迁移和恢复,提高了服务的可用性。5)提升资源利用率:服务器虚拟化技术将原有的多台服务器整合到一台服务器上,提高了物理服务器的利用率。6)动态调度资源:服务器虚拟化支持实时迁移,方便资源的整合和动态调度。同时,数据中心统一的资源池,使数据中心管理员可以灵活地调整分配资源。7)降低能源消耗:服务器虚拟化可以将原来运行在各个服务器上的应用整合到少数几台服务器上,通过减少运行的服务器的数量,降低了能源消耗。这些优势加速了服务器虚拟化技术的普及,使其应用领域越来越广泛。服务器虚拟化技术开启了基础硬件利用方式的全新时代,尤其为构建云计算基础架构奠定了重要的技术基础。在当今云计算盛行的IT时代,服务器虚拟化技术必将大行其道。3.1.6 主机虚拟化上机实践1.?单主机虚拟化上机实践(1)实验目的学习主机虚拟化环境的搭建过程和利用虚拟化管理软件对虚拟机进行可视化管理。(2)实验环境①Linux操作系统(以Ubuntu Desktop操作系统为例)。②可连通互联网的主机。③KVM、QEMU、虚拟机操作系统安装文件等。(3)实验步骤1)配置环境:配置环境的步骤如下。①查看CPU是否支持硬件虚拟化,因为KVM需要硬件虚拟化功能支持。
Intel CPU :
grep vmx /proc/cpuinfo
AMD CPU :
grep svm /proc/cpuinfo
如果查询的信息中有“vmx”或“svm”字段,说明CPU可支持硬件虚拟化。②配置安装源:Linux默认安装源下载及安装速度较慢,因此需要修改软件安装源为适合本地环境的安装源以提高速度。修改/etc/apt/sources.list文件,此处将安装源改为“mirrors.ustc.edu.cn”(中国科技大学)。
$sudo vi /etc/apt/sources.list
// 在vi编辑环境中,将软件源替换为“mirrors.ustc.edu.cn”,在命令模式下使用以下命令行:
:1,$s/cn.archive.ubuntu.com/mirrors.ustc.edu.cn/g // 根据操作系统版本不同
// 此处安装源为“cn.archive.
// ubuntu.com”,不同Ubuntu
// 版本可能有所不同
:1,$s/security.ubuntu.com/mirrors.ustc.edu.cn/g // 根据操作系统版本不同
// 此处安装源为“security.
// ubuntu.com”,不同Ubuntu
// 版本可能有所不同
:wq // 保存退出vi环境
$sudo apt-get update
$sudo apt-get upgrade
③安装KVM、QEMU及配套软件。
$sudo apt-get install kvm qemu libvirt-bin virtinst virt-manager virt-viewer
xtightvncviewer
// 查看KVM是否安装成功
# virsh -c qemu:/// system list
Id Name State
----------------------------------------------------
// 如果显示以上信息,则说明KVM、QEMU安装成功!
④使用命令行建立虚拟机,安装操作系统,使用虚拟机。
# qemu-img create -f qcow2 ubuntu.img 10G
# qemu-system-x86_64 -hda ubuntu.img -cdrom <虚拟机操作系统安装文件> -boot d -m 1024
# qemu-system-x86_64 -hda ubuntu.img -m 1024
// 启动完成后,系统会提示如下信息:
VNC server running on ‘127.0.0.1:5901’ // 不同环境下,端口号会有所不同
// 在Ubuntu桌面上新开一个Terminal,在命令行输入:
#vncviewer :5901
之后,就可以在新窗口中查看和操作普通操作系统一样操作虚拟机,显示效果如图3-11所示:
⑤通过virt-manager管理虚拟机。在用户界面上,打开Terminal终端,输入以下命令:
#virt-manager
系统弹出如图3-12所示的窗口:
后续的操作都在这个环境下进行。a)将已有的虚拟机镜像文件加入到virt-manager中。点击界面上侧工具栏第一个图标,弹出“新增虚拟机”窗口,在“安装选项”中选择“导入有磁盘镜像”,之后选择第④步创建的虚拟机镜像,按照提示进行操作,完成虚拟机镜像的导入操作。b)在virt-manager中新建虚拟机。在virt-manager中,点击界面上侧工具栏第一个图标,弹出“新增虚拟机”窗口,在“安装选项”中选择“本地安装媒介”,之后选择虚拟机操作系统的安装镜像所在位置,之后按照提示进行操作,完成虚拟机操作系统的导入操作。如图3-13所示。
c)在virt-manager中拷贝现有虚拟机。在virt-manager中现有的虚拟机实例上单击右键,在右键菜单上选择“Clone”,如图3-14所示。之后,按照系统提示完成虚拟机克隆操作,就能够以现有虚拟机为模板创建新的虚拟机。如图3-15所示。
2.?阿里云虚拟化上机实践(1)实验目的使用阿里云进行虚拟机的创建与管理。(2)实验环境阿里云平台(3)实验步骤步骤1:配置选型阿里云推荐以下几种配置组合方案,能够满足大部分用户的需求。入门型:1vCPU+1GB+1MB,适用于访问量较小的个人网站。进阶型:1vCPU+2GB+1MB,适用于流量适中的网站、简单开发环境、代码存储库等。通用型:2vCPU+4GB+1MB,能满足90%云计算用户,适用于企业运营活动、并行计算应用、普通数据处理。理想型:4vCPU+8GB+1MB,用于对计算性能要求较高的业务,如企业运营活动、批量处理、分布式分析、APP应用等。注意 这些推荐配置只是作为开始使用云服务器ECS的参考。阿里云提供了灵活、可编辑的配置修改方式。如果在使用过程中,发现配置过高或过低,可以随时修改配置。步骤2:创建Linux实例这里只介绍新购实例。如果已有镜像,可以使用自定义镜像创建实例。新购实例的操作步骤如下:①登录云服务器管理控制台。如果尚未注册,单击免费注册。②定位到云服务器ECS→实例。单击“创建实例”。如图3-16所示。
③选择付费方式,有包年包月或按量付费。关于两种付费方式的区别,请参见计费模式。如果选择“按量付费”,请确保账户余额至少有100元。如无余额,请进入充值页面充值后再开通。注意:对于按量付费的实例,即使停止实例,也会继续收费。如果不再需要该按量付费的实例,请及时释放实例。如图3-17所示。
④选择地域。所谓地域,是指实例所在的地理位置。可以根据用户所在的地理位置选择地域。与用户距离越近,延迟相对越少,下载速度相对越快。例如,如果用户都分布在杭州地区,则可以选择华东1。在这里需要注意:不同地域间的内网不能互通。实例创建完成后,不支持更换地域。不同地域提供的可用区数量、实例系列、存储类型、实例价格等也会有所差异,请根据业务需求进行选择。⑤选择网络类型。目前,大部分地域提供两种网络类型。网络类型一旦选择后,不能更改,因此请慎重选择。如果想使用经典网络,选择“经典网络”。然后点击“选择安全组”。如图3-18所示。
如果需要使用逻辑隔离的专有网络,选择“专有网络”。如图3-19所示。
⑥选择实例,包括实例系列、I/O优化实例和实例规格。关于实例规格的详细介绍,请参考实例规格族。其中,实例系列II是实例系统I的升级版,能提供更高的性能,推荐使用。推荐选择I/O优化,挂载后可以获得SSD云盘的全部性能。如图3-20所示。
⑦选择网络带宽。如果选择0MB,则不分配外网IP,该实例将无法访问公网。如果选择了按量付费,同时选择0MB固定带宽,则同样不分配外网IP,而且不支持0MB带宽升级,因此请谨慎选择。按固定带宽付费如图3-21所示。
按使用流量付费如图3-22所示。
⑧选择镜像。可以选择公共镜像,包含正版操作系统,购买完成后再手动安装部署软件;也可以选择镜像市场提供的镜像,其中集成了运行环境和各类软件。公共镜像中的操作系统License无须额外费用(海外地域除外)。如图3-23所示。
⑨选择操作系统。选择操作系统的时候,应注意以下几个问题:最流行的服务器端操作系统,强大的安全性和稳定性。免费且开源,轻松建立和编译源代码。通过SSH方式远程访问您的云服务器。一般用于高性能Web等服务器应用,支持常见的PHP/Python等编程语言,支持MySQL等数据库(需自行安装)。推荐使用CentOS。⑩选择存储,如图3-24所示。系统盘为必选,用于安装操作系统。可以根据业务需求,选择添加最多4块数据盘,每块数据盘最大32TB。用户还可以选择用快照创建磁盘,把快照的数据直接复制到磁盘中。
设置实例的登录密码和实例名称,如图3-25所示。请务必牢记密码。也可以在创建完成后再设置密码。
设置购买的时长和数量。单击页面右侧价格下面的“立即购买”。确认订单并付款。至此,实例创建完成,你会收到短信和邮件通知,告知实例名称、公网IP地址、内网IP地址等信息。之后,就可以使用这些信息登录和管理实例。步骤3:登录Linux实例根据使用的本地操作系统,可以从Windows、Linux、Mac OS X等操作系统登录Linux实例。步骤4:格式化和挂载数据盘如果在创建实例时选择了数据盘,那么在登录实例后,系统需要先格式化数据盘,然后挂载数据盘。另外,还可以根据业务需要,对数据盘进行多分区配置。建议使用系统自带的工具进行分区操作。注意:云服务器ECS仅支持对数据盘进行二次分区,而不支持对系统盘进行二次分区(不管是Windows还是Linux系统)。如果强行使用第三方工具对系统盘进行二次分区操作,可能引发未知风险,如系统崩溃、数据丢失等。本操作适用于非I/O优化+SSD云盘Linux(Redhat、CentOS、Debian、Ubuntu)实例。①使用管理终端或远程连接工具,输入用户名root和密码登录到实例。②运行fdisk -l命令查看数据盘。注意:在没有分区和格式化数据盘之前,使用df -h命令是无法看到数据盘的。在下面的示例中,有一个5GB的数据盘需要挂载。如图3-26所示。③如果执行了fdisk -l命令后,没有发现/dev/xvdb,则表示你的实例没有数据盘,因此无需挂载。④运行fdisk/dev/xvdb,对数据盘进行分区。根据提示,依次输入n、p、1,两次按回车,wq,分区就开始了。如图3-27所示。⑤运行fdisk -l命令,查看新的分区,可以看到新分区xvdb1已经创建好。如下面示例中的/dev/xvdb1。如图3-28所示。
⑥运行mkfs.ext3 /dev/xvdb1,对新分区进行格式化。格式化所需时间取决于数据盘大小。也可自主决定选用其他文件格式,如ext4等。如图3-29所示。
⑦运行echo /dev/xvdb1 /mnt ext3 defaults 0 0>>/etc/fstab写入新分区信息。完成后,可以使用cat /etc/fstab命令查看写入的信息,如图3-30所示。
注意 Ubuntu 12.04不支持barrier,所以对该系统正确的命令是:echo /dev/xvdb1 /mnt ext3 defaults 0 0>>/etc/fstab。如果需要把数据盘单独挂载到某个文件夹,比如单独用来存放网页,可以修改以上命令中的/mnt部分。运行mount /dev/xvdb1 /mnt挂载新分区,然后执行df -h查看分区。如果出现数据盘信息,说明挂载成功,可以使用新分区了。
# mount /dev/xvdb1 /mnt
# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/xvda1 40G 1.5G 36G 4% /
tmpfs 498M 0 498M 0% /dev/shm
/dev/xvdb1 5.0G 139M 4.6G 3% /mnt
文章
存储 · 前端开发 · Linux · KVM · 虚拟化
2017-09-04
VMware虚拟化--vsphere 5介绍
VMware虚拟化--vsphere 5介绍
VMware vSphere 5是vmware关于虚拟化的一组套件,也是VMware其他虚拟化的基础套件,其主要包含以下几个产品:
VMware ESXi:vSphere 5的系统管理程序(Hypervisor),和ESX相比,ESXi中取消了service console的安装。
service console只是提供了与用户进行交互的配置工具而已,取消了service console并不影响Hypervisor的功能,所以ESXi与ESX所提供的虚拟化功能是相同的。Hypervisor的核心是VMKernel,所有的虚拟机都是通过VMKernel和底层的硬件进行交互,包括CPU调度,内存管理,网络网络等等
VMware vCenter Server:vCenter是vSphere的管理层,管理ESXi主机,虚拟机,存储等等;很多高级功能都是和vCenter紧密结合的,如:HA,DRS,vDS等。
vCenter有三个版本: vCenter Server Essentials适合小型企业虚拟化环境部署;
vCenter Server Standard包含了vCenter的所有功能
vCenter Server Foundation功能和标准版一样,不过Foundation只能管理3个ESXi主机,不能使用连接方式安装vCenter,并且不支持vCenter Orchestrator。
vSphere Update Manager:主要作用是给ESXi主机和虚拟机打补丁升,是vCenter Server的插件
VMware vSphere Client:vSphere Client管理员工具,使用vSphere Client工具可以连接vCenter 或者ESXi主机并进行相关设置
VMware vSphere Web Client:顾名思义,web Client是vSphere Client的web 版,当然功能方面没有vSphere Client全。
VMware vShield Zones:虚拟化的防火墙
VMware vCenter Orchestrator:是vSphere的自动化管理工具
另外vSphere 5可以实现以下几个功能:
vSphere Virtual Symmetric Multi-Processing:该功能可以实现虚拟机多CPU运行
vSphere vMotion and Storage vMotion:vMotion是保持虚拟机的存储不变,将虚拟机的CPU,内存等资源重新映射到另一台ESXi主机;Storage vMotion是保持CPU,内存等资源不变,将虚拟机从一个存储迁移到另一个存储。vMotion功能是基于共享存储的。
vSphere Distributed Resource Scheduler:DRS就是将vMotion自动化,根据策略自动进行虚拟机的vMotion; DRS分别作用于两个阶段:1.是虚拟机启动的时候,DRS会选择一个最适合的主机保证虚拟机的运行 2. 虚拟机处于运行状态时,DRS会根据策略自动调节虚拟机,保证ESXi主机的负载均衡
vSphere Storage DRS:与DRS类似,Storage DRS是根据集群的策略自动平衡存储直接的容量以及负载;在创建虚拟机的时候选择存储集群,存储集群会自动分配一个存储给虚拟机使用。
Storage IO Control and Network IO Control:Storage IO Control可以限制虚拟机的IO,或者配置虚拟机的IO优先级;Storage IO Control现在只支持VMFS和NFS文件系统; Network IO Control是限制物理网卡的流量。
Profile-Driven Storage:虚拟机存储配置文件是确保虚拟机是运行在可以满足要求的存储上
vSphere High Availability:在虚拟化之前服务器宕机就只是一台,虚拟化之后如果ESXi宕机则会有很多服务器都宕机,所以HA功能尤其重要,HA不是无间断的方案,它是在一台物理ESXi服务器宕机后将该ESXi上的虚拟机在集群中的其他ESXi重新启动,有一定的业务影响时间。HA也可以实现虚拟机的HA,即VM Failure Monitoring可以设置HA监控虚拟机的状态,当检测不到虚拟机心跳时自动重启虚拟机。另外HA功能不是通过vMotion来实现的,HA是通过重启虚拟机实现的,一般HA的影响时间是3-5分钟左右。
vSphere Fault Tolerance:对于想实现无宕机高可用,FT就可以实现,不过实现FT功能的要求也很严格;FT功能的实现是通过vlockStep技术,即record and replay。当启动FT功能后会自动在集群中另一台ESXi主机上创建该虚拟机的镜像,并通过vlockStep技术实时同步主虚拟机的状态,即任何在主虚拟机上进行的操作都会在镜像虚拟机上呈现,这样如果主虚拟机或者ESXi宕机,镜像虚拟机会立刻运行,该过程是无中断的。如果镜像虚拟机宕机,FT会自动新建一个新的镜像虚拟机。如果主虚拟机和镜像虚拟机同时宕机,则HA会在集群中运行的ESXi主机上重启主虚拟机,然后FT将重新建立镜像虚拟机。
vSphere Storage APIs:Storage APIs是给第三方企业提供接口,开发出关于虚拟机备份恢复等产品,vsphere部分高级功能也是调用该接口。
本文转自 waydee 51CTO博客,原文链接:http://blog.51cto.com/waydee/821047,如需转载请自行联系原作者
文章
存储 · 虚拟化 · 网络安全 · 调度 · 负载均衡 · 监控
2017-11-22