数据中心部署气流遏制系统需要考虑的十大要素

简介:

数据中心气流遏制策略能够大幅提高传统数据中心制冷系统的可预测性和效率。事实上,绿色网格组织(The Green Grid)将气流管理策略称作“实施数据中心节能计划的起点”。但是,大多数已有数据中心由于受各种条件的制约,只能采用某些类型的气流遏制策略。本文将首先讨论一下部署气流遏制系统能带来哪些益处,接下来讨论的是部署气流遏制系统的两种方法,最后是对已有数据中心基础设施进行气流遏制系统部署前的评估,剖析了通常需要考虑的十大要素。

一、部署气流遏制系统的益处

一般来说,气流遏制能为已有数据中心带来如下一些重要益处:

● 通过防止热点的出现可以提高可靠性。气流遏制可以防止冷热气流混合,从而为IT设备提供均匀的、更低的进气温度,从而减少热点的发生。

● 通过消除热回风再循环,能够提高机柜功率密度。对于一个未采用气流遏制措施的传统高架地板数据中心来说,机柜功率密度一般保持在平均6千瓦/机柜以下,以防止IT设备排出的热风再循环重新进入IT设备。通过采用气流遏制以及密封孔洞,切断了热风再循环的路径,因此机柜的功率密度可以提高,而且不必担心热点的威胁。

● 通过增大经过冷却装置空气的“温差”(冷送风与热回风之间的温差)来提高制冷能力。 在一个未采用气流遏制措施的传统高架地板数据中心内,制冷装置所供应的冷风中,因为存在一些泄漏通道,其中50%以上的冷风会绕过IT设备直接返回制冷装置。在采用气流遏制系统后,供应的冷风将被直接直接送入IT设备,吸收热量并将这些热量输送到制冷装置。排气温度越高,制冷装置的温差将越大,可以将制冷能力提高20%,甚至更高。

● 因为采用了气流遏制系统,可以有效隔离冷热气流,所以能够关闭多余的制冷装置,从而提高了制冷系统的节能。另外,自然冷却的时间也得以延长。也就是说,当室外温度低于室内温度时,制冷系统的压缩机不必工作就能将热量排到室外。

二、部署气流遏制系统的两种方法

从大的方面来说,冷气流遏制与热气流遏制是实施气流管理策略的两种方法,与未采用气流遏制的传统架构相比,它们都能够实现大幅节能。那么,我们为什么要从它们当中选择其一呢?为什么不能同时采用冷热气流遏制,并将设施的其它区域采用楼宇通风系统进行冷却呢?除了IT机柜位于比较恶劣的环境外(比如生产车间),同时采用冷热气流遏制并不会带来多少好处,采用其中一种就足以防止冷热气流的混合。

图1所示为冷热气流遏制的各种类型。对于已有数据中心来说,哪种类型的气流遏制更为合适呢?这个问题在生产商、数据中心咨询人员和终端用户之间产生了激烈的争论。实际上,究竟哪种最好,主要取决于设施的制约条件。一些IT经理可以为数据中心在两种甚至多种气流遏制方法中进行选择,而另一些IT经理出于物理制约的原因,可能只能选择其中一种,冷气流遏制或热气流遏制。

a

  三、对已有数据中心进行设施评估

在为特定数据中心选择适合的气流遏制解决方案时,评估设施现状是十分重要的,而且应该提前完成。评估时,应将制约因素记录下来。制约是指那些无法克服的障碍,或者只有花费巨额费用才能改变或导致不可接受的结果。例如,提高已有数据中心室内净高是不现实的,因此被认为是一种制约。气流遏制可能会导致已有火灾探测/灭火系统故障,而这就是不可接受的后果,因此这也被视作制约。每个制约都必须仔细检查,以确定其对气流遏制解决方案部署的影响,以及考虑成本因素,它是否适合,或者拆除它是否会有其它负面影响。

对于复杂的项目,专家的审查十分必要,他们能够审查成本和制约造成的后果,而这些是最终用户可能无法意识到的。一旦某些制约的后果可以肯定、清晰明了,那么关键是审查它们,从而来判断它们能否改进或调整,以期达到更好的整体效果。已有数据中心设施有各种环境制约因素,而且并未在客户的控制之中。这些制约包括设施制约、法规制约或不可更改的业务需求等。以下剖析了常见的十大制约:

1. IT设备布局:数据中心缺乏统一的冷/热通道布局,这严重制约了可选的气流遏制解决方案。有着合理宽度的冷/热通道布局是通道气流遏制解决方案部署的重要条件。从长远来看,建议用户最终将其IT设备转化成冷/热通道布局,以便拓宽气流遏制解决方案的选择范围。

2. 室内净高:这个制约可能体现在室内净高不够,无法安装吊顶来用作回风通道。这通常是采用垂直风管热通道气流遏制或垂直风管机柜气流遏制解决方案的必要条件。

3. 高架地板深度:当高架地板深度过小时,将无法为任何高密度机柜提供足够冷风量,这被认为是一个制约。这主要是因为高架地板设计不佳,或因为高架地板下面的布线、和管网造成的阻碍。这将限制冷通道气流遏制解决方案的部署。

4. 房间立柱位置:在数据中心,支撑立柱一般有两个主要位置(在一行机柜中间或与机柜通道对齐),这可能出现支撑立柱与通道气流遏制面板出现相互干涉的情况。

5. 布线:架空电缆可能会与垂直风管气流遏制面板相互干涉。鉴于这个制约因素,就可能无法部署垂直风管热通道气流遏制解决方案或垂直风管机柜气流遏制解决方案。但如果布线只是穿过通道的某一位置,垂直风管解决方案仍然可行。

6. 气流分配类型:通常较难改变已有数据中心的气流分配类型,而在确定部署某种特定气流遏制方法的投资额和复杂度时,气流分配类型非常关键。例如,对于采用自然送风与精确回风的数据中心来说,部署热气流遏制解决方案较为简单且经济高效,而对于采用精确送风与自然回风的数据中心来说,部署冷气流遏制解决方案则较为简单和经济高效。图2所示为上述讨论的两种典型气流分配类型。

b

7. 对照明的考虑:在已有数据中心创建一个气流遏制区域,可能会导致该区域的照明效果不佳。尽管一些气流遏制解决方案已使用透明或半透明的顶棚让已有光线照入,但它还是会降低光照强度,特别是在面板脏的时候。

8. 对火灾探测和灭火系统的考虑:在部署气流遏制系统后,大量气流将在IT设备处被收集并输送回制冷装置。这种气流的高速流动模式能够稀释烟雾,因此,对需要必要烟气浓度的火灾探测和灭火构成了严重的挑战。火灾探测器的启动受到局部气流模式和烟雾稀释的影响,而灭火剂喷射则受空气流量以及用于部署气流遏制系统设备相关障碍的影响。

9. 对制冷系统运行中断期间的考虑:在发生制冷系统运行中断时,气流遏制解决方案会对此期间剩余的可用时间产生一定的影响。不同类型的通道封闭系统对温升的影响各有不同,取决于制冷设备与后备电源的连接方式。

对于采用行级冷冻水冷却器的热通道封闭系统,假设冷却器没有接UPS并且通道封闭系统的门在制冷中断时保持关闭,那么会有大量的热风从各种位置泄漏再次循环到IT设备进风口,这将导致IT设备的进风温度迅速上升。如果冷却器接了UPS,但是冷冻水水泵没有接UPS,那么冷却器只会把风输送到冷通道,而不会提供主动制冷。这时,只有冷却器的热容量(冷却盘管,盘管内的冷冻水等)可以被利用。如果冷却器和冷却水泵都接了UPS,那么温升情况将视冷水机组的配置而定(比如:蓄冷罐的配置、冷水机的启动时间等)。

对于采用行级冷冻水冷却器的冷通道封闭系统,如果冷却器没有接UPS,那么通道封闭系统里的负压将会从机柜和通道封闭系统泄漏位置吸入热风,从而导致IT设备进风温度升高。如果行级冷却器接了UPS,那么温升情况将取决于冷水机组的配置(比如:蓄冷罐的配置、冷水机的启动时间等)。

对于机柜气流遏制系统,情况基本上与配置行级冷却器的冷通道和热通道封闭系统类似。

然而,对于采用周边部署的冷冻水冷却器及吊顶的热通道封闭系统,或者采用周边部署的冷冻水冷却器及穿孔地板的冷通道封闭系统,无论空气冷却器和冷冻水泵是否接UPS,通道封闭系统在制冷系统中断后对温升都有缓解作用,这是因为通道封闭系统可以通过在开放的空间区域(冷通道)或者通过高架地板通道内的水泥板,冷冻水管等提供冷热容。这是由于冷热气流的分离阻止了冷热气流的混合,至少在制冷系统中断初期是这样的。

10. 对IT设备周边工作环境的考虑:在部署冷气流遏制系统后,房间的其它区域事实上将成为一个巨大的热回风通道,其温度与热通道相当。对始终坐在位于数据中心办公桌旁工作的IT人员来说,这是个问题。除了影响人体舒适度外,任何位于数据中心周边的IT设备的可靠性也会受到负面影响。而且,这些区域可能会违反法规或热指南对于超过湿球黑球温度的规定。

四、结论

根据上文所讨论的十大评估要素,下文总结了部分可能的评估结果及所推荐的解决方案:

1. 数据中心采用冷/热通道布局,高架地板用作送风通道,机柜顶部和天花板之间的距离不足508毫米。如果所评估的数据中心情况如上,建议采用冷通道气流遏制系统的解决方案。需要注意的是,如果高密度机柜不能从高架地板下获得足够的冷风,则可能需要安装活化地板或气流分配单元。活化地板能够对特定机柜进行气流流量调节。

2. 数据中心采用冷/热通道布局,无高架地板,吊顶用作回风通道,机柜顶部和天花板之间的距离超过508毫米。如果所评估的数据中心情况如上,建议采用垂直风管热通道气流遏制系统的解决方案。

3. 数据中心未采用冷/热通道布局,吊顶用作回风通道,机柜顶部和天花板之间的距离超过508毫米,零星分布着高密度机柜。如果所评估的数据中心情况如上,建议采用垂直风管机柜气流遏制的解决方案。

4. 数据中心未采用冷/热通道布局,机柜顶部和天花板之间的距离不足508毫米,零星分布着高密度机柜。如果所评估的数据中心情况如上,建议采用机柜气流遏制系统的解决方案。





====================================分割线================================


本文转自d1net(转载)


目录
相关文章
|
5月前
|
机器学习/深度学习 存储 数据采集
利用机器学习优化数据中心冷却系统
【4月更文挑战第26天】 在数据中心管理和运营中,冷却系统的能效是关键成本因素之一。随着能源价格的上涨和对环境可持续性的关注增加,开发智能、高效的冷却策略显得尤为重要。本文将探讨如何应用机器学习(ML)技术来优化数据中心的冷却系统。通过收集和分析温度、湿度、服务器负载等多维数据,我们构建了预测模型来动态调整冷却需求,实现节能并保持最佳的操作条件。实验结果表明,使用ML优化后的冷却系统能够在不牺牲性能的前提下显著降低能耗。
|
5月前
|
机器学习/深度学习 存储 运维
利用机器学习优化数据中心冷却系统
在数据中心运营成本中,冷却系统的能源消耗占据了显著比例。随着数据中心规模不断扩大,传统的冷却管理方法逐渐显得不足以应对复杂多变的热负荷。本文提出了一种基于机器学习的方法,旨在优化数据中心的冷却系统性能。通过收集历史运行数据和实时环境参数,构建预测模型来动态调整冷却策略,实现能源消耗与散热效率之间的最佳平衡。实验结果表明,该方法可以有效降低能耗,并保持数据中心内环境的稳定性。
35 1
|
5月前
|
机器学习/深度学习 传感器 算法
利用机器学习优化数据中心冷却系统
【2月更文挑战第15天】 在数据中心运营效率的众多挑战中,冷却系统的优化是一个关键因素。本文将探讨如何应用机器学习技术来改善数据中心的冷却性能,减少能源消耗,并提高整体的可持续性。通过分析历史温度数据、服务器负载以及环境参数,构建预测模型来动态调整冷却需求,实现智能化管理。本研究展示了一种创新方法,不仅提升了数据中心运行效率,也为其他工业冷却系统提供了可借鉴的解决方案。
50 1
|
5月前
|
机器学习/深度学习 存储 算法
利用机器学习优化数据中心冷却系统
【2月更文挑战第23天】 在数据中心的运营成本中,冷却系统占据了一大块。传统的冷却管理通常依赖于简单的规则或手动调整,无法适应复杂多变的热负荷和环境条件。本文提出了一种基于机器学习的方法来动态优化数据中心的冷却系统。我们设计了一个预测模型来估计未来的热负荷,并结合实时数据,通过优化算法调整冷却设备的工作状态,以降低能源消耗并保持适宜的运行温度。实验结果表明,该方法能够有效减少能耗,同时保证数据中心的冷却效率。
38 0
|
5月前
|
机器学习/深度学习 存储 运维
利用机器学习优化数据中心冷却系统
【5月更文挑战第20天】 在数据中心运营成本中,冷却系统占据了一大块。随着能源价格的上涨和环境保护意识的增强,如何降低数据中心的能耗成为行业关注的重点。本文通过引入机器学习技术来优化数据中心冷却系统,旨在减少不必要的能源消耗,同时保持适宜的操作温度。通过收集历史温度数据、服务器负载信息以及外部气象条件,构建了一个预测模型,该模型能够实时调整冷却策略,实现动态节能。实验结果表明,与传统冷却系统相比,应用机器学习优化后的系统在不影响性能的前提下,能够节约高达20%的能源消耗。
|
5月前
|
机器学习/深度学习 存储 传感器
利用机器学习优化数据中心冷却系统
【5月更文挑战第30天】 在数据中心的运行中,冷却系统的能效对整体运营成本有着显著的影响。随着人工智能技术的进步,特别是机器学习(ML)的发展,出现了新的机会来优化数据中心的能源使用效率。本文将探讨如何通过机器学习模型预测数据中心的热负荷,并据此动态调整冷却策略,以实现能耗最小化。我们将介绍所采用的数据集、预处理方法、模型选择、训练过程以及最终实施的策略。结果表明,基于机器学习的预测系统能够有效降低数据中心的能源消耗,并为可持续运营提供支持。
|
5月前
|
机器学习/深度学习 监控 算法
利用机器学习优化数据中心冷却系统
【5月更文挑战第30天】在数据中心的运营成本中,冷却系统占据了相当一部分。为了提高能效和降低成本,本文提出了一种基于机器学习的方法来优化数据中心的冷却系统。通过对大量历史数据的分析和挖掘,我们设计了一个预测模型,用于实时监控和调整数据中心的温度。实验结果表明,该方法可以有效降低能耗,提高数据中心的运行效率。
|
5月前
|
机器学习/深度学习 数据采集 存储
提升数据中心能效:采用机器学习优化冷却系统
【5月更文挑战第28天】在数据中心的运营成本中,冷却系统的能源消耗占据了显著比例。随着能源价格的不断上涨和可持续发展的需求日益增长,如何降低这一开支成为业界关注的焦点。本文将探讨利用机器学习技术对数据中心冷却系统进行优化的方法。通过分析历史数据和实时监控,机器学习模型能够预测冷却需求并动态调整系统设置,以实现最佳的能效比。这种方法不仅能减少能源消耗,还能提高系统的可靠性和稳定性。
|
5月前
|
机器学习/深度学习 传感器 监控
利用机器学习优化数据中心冷却系统
【5月更文挑战第27天】 随着数据中心能耗的不断攀升,尤其是冷却系统的能源消耗占据了相当一部分比例,如何通过智能化手段提高冷却效率成为行业关注焦点。本文提出了一种基于机器学习技术的数据中心冷却系统优化方案,通过实时监控和数据分析,动态调整冷却策略,以达到节能减排的目的。实验结果表明,该方案能有效降低数据中心的PUE值(功率使用效能比),为绿色计算提供可行的技术路径。
下一篇
无影云桌面