《思科UCS服务器统一计算》一1.2 数据中心的演变

简介:

本节书摘来自异步社区《思科UCS服务器统一计算》一书中的第1章,第1.2节,作者 【美】Silvano Gai , Tommi Salli , Roger Andersson,更多章节内容可以访问云栖社区“异步社区”公众号查看

1.2 数据中心的演变

思科UCS服务器统一计算
本节介绍数据中心服务器架构的演变。

1.2.1 独立服务器

也称为离散服务器,它们是具有专有外观尺寸的独立服务器,可能包含从桌面PC到大型主机的任何计算机。它们都有如图1-3所示的基本组件,但处理器、内存、I/O容量、扩展槽和集成存储的数量可能不同。


aa7ee8a91abb06a578422ab441012cfd74f45164

最大型的独立服务器可以运行多个不同应用程序,且支持大量用户。通常,它们使用某种形式的虚拟化软件来同时运行多个操作系统。但是,无论一台服务器的性能多强大,在物理限制和用于运行特定应用程序的操作系统方面都存在扩展性问题。

为了克服扩展性限制,可采用两种不同的方法:向上扩展和向外扩展。

1.2.2 向上扩展

向上扩展,也称为垂直扩展,该术语用于指一种基于增加单个服务器计算能力的扩展策略,方法是增加服务器资源,包括更多的处理器、内存和I/O设备等。

这种对现有系统的垂直扩展还支持它们更有效地利用虚拟化技术,因为它为托管的操作系统和应用程序提供了更多资源。

向上扩展减少了管理点的数量,可能会使安全策略执行变得更简单。

虽然对某些应用程序很有吸引力,但是大多数数据中心更愿意使用标准组件并采用向外扩展方法。

1.2.3 向外扩展

向外扩展,也称为水平扩展,该术语用于指基于增加服务器数量的扩展策略。其最大优点是管理员能够更轻松地根据需要重新调整计算。

向外扩展策略通常用于Intel x86服务器。近年来,这些基于PC架构的服务器类型价格持续下降但性能却不断提高。现在,这些“通用”系统已具备足够的计算能力来运行数据中心中出现的大多数应用程序。还可将它们互联成集群来执行高性能计算(High Performance Computing,HPC)应用程序,比如在建模与仿真、石油和天然气、抗震分析和生物技术等科学领域,这些计算以前只能在大型机或超级计算机上运行。

向外扩展模型刺激了有非常高I/O性能的共享数据存储的增长,特别是当需要处理大量数据时,比如数据库。

1.2.4 向上扩展与向外扩展

在这两种模型之间需要权衡。

向上扩展要求专用且更加昂贵的硬件,并且提供的操作系统环境数量有限,此外,对服务器可支持的总负载量也有限制。其优点是管理点少和对资源的利用率高,因而在功率和冷却的效率方面往往要比向外扩展高。

向外扩展将每台服务器专门用于特定应用程序。每款应用程序受到单个节点能力的限制,但是每台服务器都可运行最适合应用程序的操作系统,且能够应用合适的补丁。此外,应用程序不会相互干扰,应用程序的性能是非常确定的。这个方法明显增加了服务器数量,并且增加了管理的复杂性。

1.2.5 机架优化的服务器

由于向外扩展不断地增加服务器数量,因此明显需要优化其规模、空气流动、连接,并进行合理化安装。

机架优化的服务器是解决这一问题的初次尝试(参见图1-4)。他们也称为机架安装服务器,能装进19英寸宽的机架,其高度以机架单位(Rack Unit,RU)来定义,一个机架单位为1.75英寸(44.45mm)高。典型的基于Intel的服务器高度为一个RU且大约耗电500W。机架通常为42 RU高,但是其功率和冷却不足以满足整个机架服务器的需要。

一个典型的数据中心为每个机架提供5kW~10kW的功率和冷却能力,因而每个机架中可安装10到20台服务器。剩下的空间装上配线架。有时安装ToR交换机来汇聚相邻的几个机架中服务器所产生的流量。在其他设计中,则使用更大型的EoR交换机来以列方式和混合使用ToR/EoR的方式连接所有服务器。

image

这种方法的好处是合理的空间利用率和高度的灵活性:相对较大的服务器支持采用最新的处理器和更大的内存,以及多个I/O插槽。缺点是缺乏合理布线、不易于维修,以及缺乏有效的功率和冷却,因为每个服务器有自己的电源和风扇。

机架安装服务器只是在某些方面对传统服务器的简单重新包装,这使得可在数据中心地板的每平方英尺上安装更多的服务器,但是功能上没有太大不同。

编写本书时(2010年3月,下同),机架优化的服务器数量大约占市场上所有服务器的50%。

1.2.6 刀片服务器

与机架安装服务器相比,刀片服务器是作为优化服务器布线和电源效率的方法而引入的。刀片服务器机箱为6~12 RU高,可包含6~16个计算刀片,外加不同的I/O模块、电源、风扇和机箱管理CPU(参见图1-5)。

刀片服务器的优点是共享的机箱基础架构(主要是电源和冷却)、合理的布线,以及监控共享基础架构的能力。管理点的数量从每个服务器一个降到每个机架一个,但是机箱通常是额外的人工汇聚点。

图1-5 刀片服务器
机箱的概念不是最重要的,例如,当将服务器池定义为用于特定应用程序或用于虚拟化时。

刀片服务器不能安装一般的PCI卡,而是需要有专门规格的“夹层卡”。与机架安装服务器相比,这限制了I/O选项。

编写本书时,刀片服务器占整个服务器市场大约10%,但是其使用量正在逐步增加,并且这一比例正在迅速增长。

1.2.7 服务器蔓延

目前,大多数服务器在每台服务器上只运行一个操作系统(通常是某种Windows或Linux)和一个应用程序(参见图1-6)。这种部署模型导致“服务器蔓延”,即CPU利用率极低的服务器数量的不断增加,平均利用率仅有5%~10%。这意味着大量空间、电力和冷却系统的浪费。

图1-6 每台服务器上一个操作系统/应用程序

这种部署模型的好处是独立(每个应用程序有确定的资源)、灵活(通常可在任意服务器上启动任意操作系统/应用程序)且简单(每个应用程序有专门的服务器和最适合的操作系统版本)。每台服务器都是一个管理对象,因为每台服务器运行一个应用程序,因而每个应用程序都是一个管理对象。

此架构允许为不同应用程序应用一致的差异化策略设置。网络为每个应用程序提供一个(或多个)物理端口,并且在该端口上,可确保QoS、ACL和安全等。这与交换机是否在刀片服务器内这一事实无关。

尽管如此,由于空间、电力和冷却的浪费,服务器蔓延正迅速变得难以接受。此外,管理所有这些服务器是管理员的恶梦,而且花费巨大。

1.2.8 虚拟化

虚拟化是用于减少服务器蔓延的关键技术之一,为世界各地的机构所广泛采用。相对于机箱作为容器,通过虚拟化,服务器可成为多个逻辑服务器的容器(参见图1-7和图1-8)。虚拟化软件包含等同于机箱中物理交换机的软件交换机。服务器虚拟化的优点是利用率、移动性和可用性,缺点是缺乏分布式策略、安全性、诊断和性能可预测性。
image

1.2.9 服务器部署现状

目前为止介绍的服务器演进主要着眼于“规模的演进”,而不是模型的显著变化。向上扩展意味着更大型的服务器;向外扩展意味着更多的服务器,因此有更多网络基础架构。例如,图1-9显示了安装在机架中、由外部交换机互联的运行虚拟化的3台刀片服务器。

通常是事后才考虑管理工具:它们只是应用于服务器,而没有深度集成。这使得管理同一组服务器的工具数量增加,通常也会难以维护策略的一致性,难以确保安全并进行扩展。
image

相关文章
|
28天前
|
机器学习/深度学习 弹性计算 人工智能
阿里云服务器架构有啥区别?X86计算、Arm、GPU异构、裸金属和高性能计算对比
阿里云ECS涵盖x86、ARM、GPU/FPGA/ASIC、弹性裸金属及高性能计算等多种架构。x86架构采用Intel/AMD处理器,适用于广泛企业级应用;ARM架构低功耗,适合容器与微服务;GPU/FPGA/ASIC专为AI、图形处理设计;弹性裸金属提供物理机性能;高性能计算则针对大规模并行计算优化。
|
1月前
|
安全 数据中心
数据中心服务器机架是什么
数据中心服务器机架是用于容纳服务器、存储器等IT设备的结构,旨在提升数据中心的管理与运营效率。常见的类型包括开放式机架、封闭式机柜和壁挂式机架,每种类型各有特点,适用于不同的场景需求。选择时需考虑尺寸、承重、冷却效率及安全性等因素,以确保最佳的使用效果。
65 4
|
2月前
|
存储 固态存储 安全
阿里云服务器X86计算架构解析与X86计算架构云服务器收费价格参考
阿里云服务器架构分为X86计算、Arm计算、高性能计算等多种架构,其中X86计算是用户选择最多的一种架构,本文将深入探讨阿里云X86计算架构的云服务器,包括其技术特性、适用场景、性能优势以及最新价格情况。
|
2月前
|
编解码 弹性计算 应用服务中间件
阿里云服务器Arm计算架构解析:Arm计算架构云服务器租用收费标准价格参考
阿里云服务器架构分为X86计算、Arm计算、高性能计算等多种架构,其中Arm计算架构以其低功耗、高效率的特点受到广泛关注。本文将深入解析阿里云Arm计算架构云服务器的技术特点、适用场景以及包年包月与按量付费的收费标准与最新活动价格情况,以供选择参考。
|
2月前
|
机器学习/深度学习 弹性计算 编解码
阿里云服务器计算架构X86/ARM/GPU/FPGA/ASIC/裸金属/超级计算集群有啥区别?
阿里云服务器ECS提供了多种计算架构,包括X86、ARM、GPU/FPGA/ASIC、弹性裸金属服务器及超级计算集群。X86架构常见且通用,适合大多数应用场景;ARM架构具备低功耗优势,适用于长期运行环境;GPU/FPGA/ASIC则针对深度学习、科学计算、视频处理等高性能需求;弹性裸金属服务器与超级计算集群则分别提供物理机级别的性能和高速RDMA互联,满足高性能计算和大规模训练需求。
|
2月前
|
监控 Serverless 云计算
探索Serverless架构:无服务器计算的新纪元
Serverless架构作为云计算的新范式,让开发者无需管理服务器即可构建和运行应用,从而专注于代码开发。其核心优势包括成本效益、自动扩展及高效部署。通过事件驱动模型和微服务部署,开发者按需付费,减少了资源浪费。尽管面临冷启动、状态管理和调试等挑战,Serverless架构仍凭借其高效性与可扩展性展现出广阔的应用前景。流行平台如AWS Lambda、Azure Functions等使其实施更为便捷。
|
7月前
|
存储 传感器 监控
探索现代数据中心的冷却技术革新
【4月更文挑战第23天】 在信息技术迅猛发展的今天,数据中心作为计算和存储的核心枢纽,其稳定性和效率至关重要。然而,随着处理能力的增强,设备发热量急剧上升,有效的冷却方案成为确保数据中心持续运行的关键因素。本文将深入分析当前数据中心面临的热管理挑战,并探讨几种前沿的冷却技术,包括液冷系统、热管技术和环境自适应控制策略。通过比较不同技术的优缺点,我们旨在为数据中心管理者提供实用的冷却解决方案参考。
|
4月前
|
机器学习/深度学习 存储 监控
利用机器学习技术优化数据中心能效
【7月更文挑战第36天】在数据中心管理和运营中,能源效率已成为关键性能指标之一。随着能源成本的不断上升以及环境保护意识的增强,开发智能化、自动化的解决方案以降低能耗和提高能源利用率变得尤为重要。本文探讨了如何应用机器学习技术对数据中心的能源消耗进行建模、预测和优化,提出了一个基于机器学习的框架来动态调整资源分配和工作负载管理,以达到节能的目的。通过实验验证,该框架能够有效减少数据中心的能耗,同时保持服务质量。
|
7月前
|
存储 大数据 数据处理
探索现代数据中心的冷却技术
【5月更文挑战第25天】 在信息技术迅猛发展的今天,数据中心作为其核心基础设施之一,承载了巨大的数据处理需求。随着服务器密度的增加和计算能力的提升,数据中心的能耗问题尤其是冷却系统的能效问题日益凸显。本文将深入探讨现代数据中心所采用的高效冷却技术,包括液冷解决方案、热管技术和环境自适应控制等,旨在为数据中心的绿色节能提供参考和启示。
|
7月前
|
人工智能 监控 物联网
探索现代数据中心的冷却技术
【5月更文挑战第27天】 在信息技术迅猛发展的今天,数据中心作为信息处理的核心设施,其稳定性和效率至关重要。而随着计算能力的提升,数据中心面临的一个重大挑战便是散热问题。本文将深入探讨现代数据中心冷却技术的进展,包括传统的空气冷却系统、水冷系统,以及新兴的相变材料和热管技术。通过对不同冷却方式的效率、成本及实施难度的分析,旨在为读者提供一份关于数据中心散热优化的参考指南。