减少房间级旁通气流,为改善数据中心制冷量与降低运营成本创造机会

简介:

从对数据中心内制冷单元运行勘测数据来看,发现有不少冷量由于没有被有效利用而导致流失,这些冷量若被善加利用,可以有效改善数据中心制冷量并降低运营费用。冷量流失的根本原因在于房间级旁通气流。

在数据中心领域,业界人士正不遗余力将气流组织管理(AFM)解决方案作为一种提高运行可靠性、降低运营成本以改善制冷能力的方式进行推广。

众所周知,在高架地板上的电缆出口处安装橡胶密封圈以及在机柜中没有放置服务器的地方安装盲板是消除热点的有效方法。但是,在使用气流组织管理(AFM)解决方案(如冷/热通道封闭)之前,这一简单的方法却没能得到足够重视,很多数据中心经常忽略不做或者嫌麻烦,只做了很少一部分。

尽管目前有很多种气流组织管理(AFM)和通道遏制解决方案,可对于大部分数据中心而言,数据中心内现有制冷量已经是所需制冷量的四倍,因此,在很大程度上,这些数据中心只需要通过合理规划、改善气流组织,就可以提高制冷效率,并能创造更多的潜在价值,只是这种优势目前并未得到认可。

大家对旁通气流有一个误区,认为只要管理高架地板上开口、或者采用通道气流遏制系统,就会消除旁通气流。事实上,这些解决方案虽然解决了进风温度问题,也会降低风扇的运行成本,但房间中旁通气流的体积是保持不变的。检测和纠正大家对于旁通气流的全面认识,可以更好的解决这个问题。

旁通气流的发展:

早在10年前, Uptime Institute就发表了第一篇关于旁通气流的文章。在由 Uptime Institute和Upsite Technologies的工程师引导的这项研究中,对高架地板中旁路开口与固定开孔的比例进行量化(例如:风口地板等)。旁路气流最早被提出就是以高架地板上的未经管理的各种开口作为研究领域的。虽然这些开口会产生旁通气流,但它们并不是造成旁通气流的原因。

旁通气流是指从制冷单元出来的气流,没有通过IT设备就直接返回制冷单元的那部分气流。此外,将多次通过IT设备的气流定义为IT设备废气循环。对于数据中心内的气流,最理想的情况是所有由制冷单元出来的气流在返回之前,都正好一次通过IT设备。由制冷单元提供的任何大于IT设备消耗的气流,形成了旁通气流。

在最早的Uptime Institute研究表明,平均有60%的数据中心内的制冷量是通过未密封的电缆口以及设计过大的风口地板流失掉的。最近,Upsite Technologies针对45个数据中心进行的调研表明,平均48%的气流都通过未密封的电缆出口和开孔率过大的风口地板中流失出去的。这些统计数据显示在过去十年中,通过采用气流组织管理方案(AFM)解决数据中心气流问题之后的效果并没有预期好。因此,需要对气流组织(AFM)的基本原理有一个更全面、客观的了解。例如,在Upsite研究的的数据中心中,有很多已经采用通道气流遏制系统,却没有对地板下送风区域做好密封处理。

对旁通气流的一些误解

管理高架地板上的开口是十分必要的,因为经过冷却处理的气流只能是通过数据中心内的开口才会流失(风口地板或格栅风口板)。但是,对于管理高架高架地板开放区域到底有多少益处,却存在几个误区。

业内有一个普遍的误解:如果电缆出口被密封或者风口地板被适当的管理,旁通气流量就会减少。这有可能会发生,但事实上,在大部分数据中心都存在过剩的制冷量。这些过剩的制冷量产生的气流由于电缆出口被密封处理以及对风口地板的开孔率进行调节管理,会使旁通气流转移到冷通道。

下图中的箭头和数字表示数据中心内气流移动的数量与方向。为了大家看清楚,这张图简化机柜和冷却单元的数量,但是该比率可应用于具有许多冷却单元以及多列机柜的房间。

  图1: 典型气流量

图1显示没有对高架高架地板开放区域管理的典型的数据中心。制冷单元提供10个单元的冷却气流量。未密封的电缆出口共释放出6个单位的冷却气流量,并在冷通道的风口地板释放出4个单位的冷却气流量,这也就是意味着IT设备总共消耗了4个单位的冷却气流量。在这种情况下,风口地板释放出的气流量等于IT设备消耗的气流量。数据中心内唯一的旁通气流是从未密封的电缆出口处流失的气流。

  图2:密封高架高架地板后的气流

图2显示高架地板开放区域得到完全密封处理后的情况。

现在,从未密封的电缆出口流失出去的6个单位的气流也从冷通道中送风口出来。因此,来自制冷单元的10个单位的制冷量都送达到冷通道,但由于IT设备只需要4个单位的制冷量,所以剩下的6个单位的冷量作为旁通气流离开冷通道。该示例表明,改变制冷单元制冷量是改变机房内旁通气流量的方法之一。

还有一个误解是密封电缆出口和其它原因导致的旁通气流导致制冷单元回风温度升高,从而提高制冷单元使用效率。

如图所示,消除旁路气流方式之一是密封好高架地板上电缆开口;与此同时,这么做可以增加风口地板以及格栅风口地板送风量以及消除机柜内部热点,增加IT设备制冷量,但回风温度却不变。制冷单元的回风温度,以及它的效率和容制冷量,都取决于送风量、热负荷,以及自动恒温恒湿装置下设定的回风温度。

因此,提高制冷单元回风温度设定值是提高制冷单元效率和制冷量以及实现气流组织管理成果的全部益处的唯一方法。

许多数据中心已经实施了气流组织管理方案,并看到了如下优势:

l 提高IT机柜进风温度

l 提高IT设备可靠性

l 增加风口地板送风量

然而,这些数据中心中的大部分还没有改变制冷单元回风温度的设定值,降低风扇转速,或关闭过量的制冷单元。他们并没有意识到这么做带来的潜在的价值:

l 提高制冷单元效率

l 增加制冷单的制冷量

l 降低运营费用

改善旁通气流的四个步骤:

通过全面了解旁通气流界定和来源,数据中心管理人员可以从中发现增加制冷量和降低运营成本的重要机会。这可以归结为四个步骤。

备注:为确保IT设备不受高温影响而导致宕机,作为优化制冷系统的一部分,在对IT设备实时监控的同时,也要重视对气流组织以及制冷系统的基础设施的优化,从而更有效的保证设备正常运行。数据中心制冷量系数(CCF)取决于许多因素,例如(但不限于以下因素):制冷单元规格(尺寸)、制冷单元数量和位置、数据中心整体规划、热负荷分配、高架高架地板高度及顶板高度。

第一步:

测量数据中心内CCF值(冷却容量系数),获得改善制冷系统的第一手数据。如果制冷单元具有定速风扇,或风扇正全速运行,那么CCF就是数据中心内旁通气流值。CCF值等于总制冷量(千瓦)除以110%IT关键负载(千瓦)。一旦明确数据中心CCF值,就可以采取适当方式对制冷系统进行调整,改善气流组织。

第二步

改善气流组织,做好三件事。这三件事,用英文来讲,就是三个R,:1.Raised floor(提高高架地板高度),2.Rack(机柜气流管理),3.然后Row(行间气流管理)。(建议按此顺序改造气流组织)

⒈管理高架地板板上、地板下开放区域:密封电缆出口和对地板开孔位置进行处理;检查地板下周围墙壁是否有未做密封处理的开孔或穿洞;密封这些穿孔需用防火材料。

⒉对IT机柜内进风口位置(机柜正面)垂直面的所有开放区域进行密封处理。为机柜安装盲板,对机柜底部空隙做好密封,安装机柜侧板。

⒊填充未放置IT机柜的空间或机柜间的空隙。当机柜密度足够高或者想要得到更高效率的时候,封闭冷通道/热通道一种选择。

第三步

接下来,改变制冷基础设施

l 提高制冷单元回风温度设定值。将设定值提高,不超过IT设备进风温度的最高值。

l 关闭过剩的制冷单元,或降低变频制冷单元的风扇转速,如风扇不是变频的,建议更换为变频风扇。。

第四步

最后,确认以上步骤是否都做到,确认制冷系统已进行优化。

在对制冷单元重新设定进风温度、回风温度后,可能需要调节风口地板以及格栅风口地板的数量和位置, 从而使IT设备进风温度低。

管理气流组织最终目标是尽可能提高制冷单元温度设定值,尽可能运行更少的制冷单元,或能降低风扇转速,而使IT设备的进风温度超过最高值。请记住,对制冷单元设置冗余是很必要的,以便当制冷单元出现故障时,有足够的制冷量来支持负载。配置多少冗余制冷单元的数量取决于很多因素,比如:高架地板的高度,地板下面的障碍物,机柜的布置,气流组织管理的有效性,数据中心负载的变化,房间规格等。

此外,通过气流组织管理方案气流得到改善后,将可能提高制冷单元温度设定值或者进一步降低风扇转速。例如,彻底检查和调整风口地板的数量和位置后,可以将温度设定值提高几度。接着,再安装盲板,等填充机柜行间空隙后,可将制冷单元温度设定值再提高几度。

结论

基于目前数据中心冗余制冷容量的数据,运营商和管理人员经常面临着挑战,要量化数据中心内旁通气流和制冷量过剩的问题。事实上,旁通气流问题在整个行业是十分普遍的。

解决方案的范围从密封垫圈和盲板到封闭冷、热通道方案都是必要的改善措施,但是,为了通过提高制冷量中实现更大的经济效益,需要在制冷基础设施中进行改变:更改制冷单元温度设定值、降低风扇转速或关闭过剩的制冷单元。

如果旁通气流没有被看作数据中心高架地板中的微不足道的打洞或者开孔的话,它应该能够被业界更多专业人士认同,同时会有机会会被量化,从而能更好为改善制冷系统,降低运营费用做出贡献。

本文转自d1net(转载)

目录
相关文章
|
机器学习/深度学习 jstorm 人工智能
带你读《2022龙蜥社区全景白皮书》——6.2.3 龙蜥社区助力阿里数据中心大幅降低成本
带你读《2022龙蜥社区全景白皮书》——6.2.3 龙蜥社区助力阿里数据中心大幅降低成本
165 7
|
存储 安全 数据库
云计算将如何改变数据中心运营与发展
如今,信息技术一直在不断发展。而这种技术进步继续以极快的速度发生,需要更快的处理和大量的数据存储,而在过去二十年中引入了改变数据中心设计和部署的云计算模型。
190 0
云计算将如何改变数据中心运营与发展
|
达摩院 大数据 数据中心
阿里巴巴浙江云计算仁和数据中心正式运营
9月16日,全球规模最大的全浸没式液冷数据中心——阿里巴巴浙江云计算仁和数据中心正式投入运营,它也是我国首座绿色等级达5A级的液冷数据中心。作为阿里巴巴在浙江省杭州市的首座超级云计算数据中心,仁和数据中心将有效辐射长三角经济带,为新基建注入强动力。浙江省发改委副主任胡奎、杭州市委常委、余杭区委书记张振丰、阿里云智能总裁张建锋出席当天的开服仪式并致辞。
|
大数据 数据中心
新基建下对于降低数据中心能耗指标PUE的方法分析
本文分析了大数据中心作为新基建七大领域中的一部分,其最重要能耗指标PUE的计算方法和全国及部分省市对PUE指标的限制规定。分析能够降低PUE的不同方法及采用这些方法的数据中心的PUE值
1829 0
新基建下对于降低数据中心能耗指标PUE的方法分析
|
大数据 数据中心
新基建下对于降低数据中心能耗指标PUE的方法分析
本文分析了大数据中心作为新基建七大领域中的一部分,其最重要能耗指标PUE的计算方法和全国及部分省市对PUE指标的限制规定。分析能够降低PUE的不同方法及采用这些方法的数据中心的PUE值
2633 0
|
数据中心 虚拟化 运维
虚拟化是如何降低数据中心功耗的?
虚拟化提供了很多优势,像工作负载的可移植性、动态资源调配等,但是,这些是如何转化为电能节约的呢?   虚拟化的好处主要体现在提高数据中心计算资源的利用率,不使用虚拟化可能会有浪费现象存在。例如,一个传统的物理服务器,上面运行单个工作负载,可能在服务器的CPU或内存资源上只使用了10%-15%,从而浪费了85%-90%。