数据中心内部冷却方法

简介:

摘要:在本文中,业界专家们将为您介绍关于如何通过利用精心设计的数据中心冷却系统,大幅节省成本,从而防止严重故障。确保高效的数据中心冷却对数据中心管理员们提出了许多挑战。但是,保护昂贵的计算硬件组件及其所支持的关键任务的操作处理无疑是至关重要的。在本文中,业界专家们将为您介绍关于如何通过利用精心设计的数据中心冷却系统,大幅节省成本,从而防止严重故障。

借助精确冷却实现节能

今天,随着数据中心操作运营温度的升高以及IT效率的不断提高,使得其中的硬件设备持续保持在恰当的温度不仅仅只是不断的为室内输送冷却空气这么简单了。数据中心需要采用更符合成本预算(及其所产生的副作用:环保)的更好的控制方法,而不是过度冷却。

即使您企业采用了包括机械制冷、加湿和密封遏制在内的一系列员工们所熟悉的技术,恰当和经济高效的冷却机架和服务器也仍然是一项复杂的任务。故而本文着重讨论了考虑成本的经济性,采用外部空气等“免费的”自然冷却方案,以节省数据中心的成本。

鉴于数据中心硬件设备在越来越高的温度下运行,数据中心所在地的气候不可能一年四季都如在北极一样寒冷。与所有的IT趋势一样,这种“免费”的方法并非没有缺憾,但却是朝着尽可能的只消耗所需能量(或者少量)的方向迈出的一大步。如何准确测量评估您企业数据中心的冷却散热需求呢?本文提出了一种借助计算流体动力学(或称为CFD)的可能性,即使在高密度的基础设施中也能识别需要冷却的区域。

该技术有助于仅在需要的地方提供冷却,以防止过度冷却。由于数据中心面临着持续降低能源成本的压力,因此考虑任何衡量方案,并最终减少冷却需求的机会都是相当重要的。

数据中心冷却要点

良好的冷却散热对于保护昂贵的计算硬件及其所支持的关键业务的处理和操作是至关重要的。在操作温度升高的情况下,大多数计算机将关闭以进行自我保护,但是,如果缺乏足够有效的冷却,最高性能的服务器可能在几秒钟内崩溃。故而企业IT部门现在不仅要考虑高效地实施冷却,而且还必须要具备“冷却穿越”(cooling ride-through)的设计,其能够在电源故障和发电机启动之间保持足够的冷却,以使关键服务器免于过热和崩溃。

近年来,数据中心的冷却领域所经历的变化远远超出了数据中心基础设施的任何其他领域,因为其必须跟上高性能硬件的快速发展的步伐。并且由于冷却系统是设施中构建和操作的最昂贵的部件,开发更有效的冷却系统已经成为整个行业的主要目标。那么,到底要如何实施冷却呢?数据中心必须像冰箱冷藏室一样的日子已经一去不复返了。过度的冷却不仅会耗费昂贵的电力成本,也是对环境不负责任和不必要的。事实上,数据中心未来的一个目标是能够在任何气候条件下实施冷却,而不需要机械制冷。

虽然今天这 在某些地区已经是可以实现的了,但对于绝大多数企业而言,在未来几年仍将主要依靠机械冷却。因此,了解当前市场可用的冷却技术,每种不同方法的最佳实践方案以及冷却将如何继续发展是极其重要的。

提高操作运营温度

如果在适当的温度条件(称为“入口温度”)下输送适量的空气,现代计算设备被设计为能够进行自身的冷却。美国采暖、制冷和空调工程师学会(ASHRAE)已经确认,所有现代和传统硬件均被设计为可用于在进气温度高达27摄氏度(80.6华氏度)的情况下实施长期可靠的操作。选择该温度以提供具有最大能量效率的良好冷却。

硬件设备也可以在几天内处理和应对高达35摄氏度(95华氏度) 的操作温度条件,而不会出现故障率的明显增加。例如在部分冷却系统发生故障或异常炎热的天气情况下。能源使用量会随着风扇转速的增加而增加,但短期低效率不会抵消长期节能目标的实现。为了保险起见,许多数据中心设计者和管理人员选择在大约24摄氏度(75华氏度)的条件下实施操作运营,但是没有理由将操作运营环境温度冷却到这一温度之下。

密封遏制

即使在实施了较高的操作运营温度的情况下,有效的冷却策略仍然是至关重要的。改善冷却的最佳方法是分离热空气和冷空气。 “密封遏制”冷空气供应或热空气排放,防止二者的混合,但是您企业的数据中心需要采取两个步骤来成功完成此任务。

首先,机柜必须实行面对面和背对背的安排布置,使得机架前面的通道(或称“通风走廊”)与排气通道(或称“热”通道)交替。注意,在较高的入口温度条件下,我们此处所提到的是 “通风走廊(cool aisle)”而不是“冷通道(cold aisle)”。

第二,机柜之间的间隙必须用填料封闭,所有未使用的面板空间必须用消隐板(blanking panel,即实心板代替缺少的计算硬件)堵塞。这可以防止来自计算硬件背面的热空气再循环到前部,而提高设备的入口温度。

即使采取了上述这些步骤措施后,空气仍然可以在机柜的顶部和机架行末的周围流通,所以最终的解决办法是竖立更多的屏障,以遏制空气流通。无论是热过道还是冷过道都可以采用这种方式。屏障可以是诸如塑料窗帘,当然其也可以在机架行的端部或者悬挂在机柜上方以进行防护和防止静电。这被称为“部分遏制”,因为部分的空气仍然可以通过帘缝渗漏,但这是非常有效的。

“完全密封”要求带有门的实心端板,以及机柜顶部和天花板之间的实体屏障,或安装的天花板与机柜高度相匹配。完全遏制显然成本造价更贵且更不灵活,所以两者之间的选择通常是基于企业数据中心的预算或现有设施的限制。

在新的数据中心设计中,首先应考虑完全密封的方案,因为其是最有效的,而剩余部分的管道、电气和电缆桥架可以设计成能够容纳实体屏障。但如果天花板的高度或预算限制了这一点的实施,那么部分遏制要比什么也没有要好。

“热源”冷却

需要消耗大量的能量来推动冷空气通过房间,地板下方或管道。将冷却单元安置在靠近计算设备的地方有助于显着降低风扇的能耗。还使得冷却单元更容易在其可再循环之前吸入热回流空气。但是,最终仍然必须将热量排出到室外,这需要循环流体通过冷却单元。这需要管道在机柜区域之外,要么在地板下,要么在机架顶上。

如果您企业不想采用数据中心管道输送水,那么替代品是制冷剂,如果一旦发生泄漏,则会变成无害气体。但是制冷剂管道的安装和改变也更为困难和成本昂贵。虽然数据中心采用水冷却或将带来泄漏问题,但是通过适当的安装以及诸如泄漏检测系统和排水管之类的预防措施,则可以降低泄漏损坏昂贵硬件的风险。

另一个考虑是许多热源冷却器仅去除“显热”,并且被设计用于非常高的热负荷。 “显热”是指您可以感觉到的热量。其是电子设备产生的热量,不含水分。

因此,许多热源冷却器并没有湿度控制。此外,许多热源单元将不会在 低热负荷下操作。为了冷却较低热密度的机架和机柜,同时提供湿度控制,常常需要采用常规的空调(如周边计算机机房空调或“CRAC”)。在一些设计中,单独的加湿可以是需要的。有五种基本类型的热源冷却,以及一种新的策略需要考虑:

1、行列式空调(In-row air conditioner)的包装与设备机柜一样,并且与机柜行的端部内或机柜排的端部处的标准机柜混合。有些单元只是简单的将空气从前面排入冷却通道,而另一些单元则允许将空气导向最需要的空间。然后他们从热通道中吸入热回流空气。该空气被再冷却并再次从前面排出。

2、行间冷却器(IRC)对于冷却是高效的,并且作为“封闭”环境的一部分,它们甚至更有效。风扇速度和冷却能力通常通过相邻机柜前面的温度传感器控制,因为这是入口温度。

行间系统可用于具有和不具有湿度控制的冷冻水、冷凝器水和基于制冷剂的热传递。冷冻水和抽水的制冷单元(没有压缩机、加湿器或再热器的系统)消耗很少的功率,因此它们也可以在不间断电源(UPS)上维护,以在发生电源故障后进行高密度冷却穿越。然而,穿越需要足够的冷冻水储备(通常存在于总管道内),加上也在UPS上的小泵,以循环,直到发电机启动。

另一大好处是,当冷却需求改变时,一些IRC可以在数据中心内重新定位。

3、机柜上方的冷却类似于行内冷却(In-Row Cooling),但这些设备从上方直接在需要冷却的机柜前排放冷空气,并将热空气抽回机柜顶部。有些单元安装在机柜的顶部,其他单元从冷却通道中间的天花板悬挂。一个系统可以被配置为不仅能够提供冷却,而且还可以形成冷却通道“天花板”,作为密封遏制解决方案的一部分。

顶置式冷却器(Overhead cooler)用于冷却超高密度机柜(通常是8 kW至25 kW或更高)。它们仅去除显热,因此被用作常规冷却的补充。顶置式系统由局部温度传感器控制。所有都是基于制冷剂的,并且具备高能效。

与一些IRC一样,在UPS上也可以保持顶置式冷却器的低能量消耗,以提供冷却穿越,直到发电机启动。当重新配置计算设备时,机架顶部和行中央单元也可以相对容易地物理重新定位。

4、自冷机柜是闭环系统的缩影。这些机柜在其自身的外壳内循环空气,用于最终的密封遏制的热源冷却。它们可以使用水或制冷剂,并且举具备高能效。但他们往往是大型、超重、成本昂贵。这些“问题解决者”通常被用于没有其他冷却设备的房间中,或者在没有重建房间的情况下在非低密度的数据中心中提供高密度“孤岛”。

5、背门式冷却器(Rear-door cooler)是散热器,使得冷却水可以通过散热器循环以去除热量。它们机柜上替换正常的背门,并在热排气通过它们时将其冷却,然后排入室内。

这些装置最初是设计成在进入热通道之前预先冷却来自高性能计算机所排出的非常高温的空气,并返回空调以进一步冷却。

如果安装在足够的机柜上(在许多情况下,意味着每个机柜均安装),较新的版本可以满足总的冷却要求。这导致空气在操作机房中的任何地方的温度都是相同的。由于所有的空气都要么可以用作排气要么作为进气,机柜可以面向相同的方向安置,或者仍然可以处于热通道/冷却通道构造。背门式冷却器仅去除显热,因此,与其他辅助系统一样,需要额外的设备进行湿度控制。独立的测试显示完全被动的背门式冷却器(没有风扇的冷却器)是最节能的冷却装置。

6、浸没式冷却是最新的冷却方案选项。只需对磁盘驱动器进行小的改动,设备就可以完全浸没在非导电的油中,直接从电路中移除热量。在发生故障的情况下,油还提供巨大的热量,其可以保持设备冷却,只有一个小的循环泵可以在UPS上运行。

这种新兴技术于2011年才刚刚兴起上市,但其正在赢得整个业界广泛的兴趣。其主要的缺点是,需要修改硬件,而这会使得工作设备凌乱。但就冷却而言,却是非常有效的。

数据中心冷却的未来

上述所有方法都依赖于某种形式的机械系统来将热量传递到外部空气。 理想的情况下,如果设备操作温度低于27摄氏度,则可以直接用来自外部的空气冷却设备。 或者,循环水可以由外部空气来直接冷却,仅需要采用泵,并且不需要机械制冷。 这两种方法都称为自然冷却。

在大多数气候条件下,即使外部空气条件不适合提供全年的冷却,足够的天数也能够满足在全机械冷却和自然冷却之间的切换,以实现成本效益。然而,从机械冷却到非机械冷却的过渡通常是自然冷却设计中的最大挑战。

但在将来,计算设备可以设计成甚至能够在更高的温度条件下操作运行。这将使得自然冷却的方法可以在一年四季中的任何气候中使用。随着数据中心操作运营温度的持续提升,直到1990年左右都一直在大型主机领域所使用的直接液体冷却的方法也变得越来越普遍。

在去除热量方面,水比空气的效率高约3500倍,因此考虑这个选项是合理的。液体冷却被用于一些高性能的硬件设备,并且,鉴于输送大量的空气用于冷却高性能硬件不太现实,故而液体冷却方案可能将获得进一步的普及。

“免费的”数据中心散热的方法和挑战

免费的数据中心自然散热冷却并不是真的“免费的”,除非您可以打开窗户,直接让空气吹进屋来。但是,当您企业的数据中心采用较低温度的室外空气而不是采用机械制冷来为建筑物或数据中心所散发的热量提供冷却时,您企业可以因此而节省大量的电气成本,我们将其称之为“免费自然冷却”。

在数据中心行业中所经常使用的另一项术语是节约,但不管是什么,其核心理念都是尽可能使用最少的能耗将数据中心的设备散热排放到户外。



本文出处:畅享网
本文来自云栖社区合作伙伴畅享网,了解相关信息可以关注vsharing.com网站。

目录
相关文章
|
6月前
|
存储 大数据 数据处理
探索现代数据中心的冷却技术
【5月更文挑战第25天】 在信息技术迅猛发展的今天,数据中心作为其核心基础设施之一,承载了巨大的数据处理需求。随着服务器密度的增加和计算能力的提升,数据中心的能耗问题尤其是冷却系统的能效问题日益凸显。本文将深入探讨现代数据中心所采用的高效冷却技术,包括液冷解决方案、热管技术和环境自适应控制等,旨在为数据中心的绿色节能提供参考和启示。
|
6月前
|
机器学习/深度学习 存储 传感器
利用机器学习优化数据中心冷却系统
【5月更文挑战第30天】 在数据中心的运行中,冷却系统的能效对整体运营成本有着显著的影响。随着人工智能技术的进步,特别是机器学习(ML)的发展,出现了新的机会来优化数据中心的能源使用效率。本文将探讨如何通过机器学习模型预测数据中心的热负荷,并据此动态调整冷却策略,以实现能耗最小化。我们将介绍所采用的数据集、预处理方法、模型选择、训练过程以及最终实施的策略。结果表明,基于机器学习的预测系统能够有效降低数据中心的能源消耗,并为可持续运营提供支持。
|
6月前
|
人工智能 监控 物联网
探索现代数据中心的冷却技术
【5月更文挑战第27天】 在信息技术迅猛发展的今天,数据中心作为信息处理的核心设施,其稳定性和效率至关重要。而随着计算能力的提升,数据中心面临的一个重大挑战便是散热问题。本文将深入探讨现代数据中心冷却技术的进展,包括传统的空气冷却系统、水冷系统,以及新兴的相变材料和热管技术。通过对不同冷却方式的效率、成本及实施难度的分析,旨在为读者提供一份关于数据中心散热优化的参考指南。
|
6月前
|
机器学习/深度学习 监控 算法
利用机器学习优化数据中心冷却系统
【5月更文挑战第30天】在数据中心的运营成本中,冷却系统占据了相当一部分。为了提高能效和降低成本,本文提出了一种基于机器学习的方法来优化数据中心的冷却系统。通过对大量历史数据的分析和挖掘,我们设计了一个预测模型,用于实时监控和调整数据中心的温度。实验结果表明,该方法可以有效降低能耗,提高数据中心的运行效率。
|
6月前
|
存储 大数据 数据中心
探索现代数据中心的冷却革新
【5月更文挑战第29天】在信息技术不断进步的今天,数据中心作为计算和存储的核心枢纽,其稳定性与效率至关重要。随着处理能力的提升,散热问题日益凸显,成为限制数据中心性能的关键因素之一。本文将深入探讨现代数据中心面临的热管理挑战,并分享一系列前沿的冷却技术与实践,旨在为构建更为高效、环保的计算环境提供参考。
|
6月前
|
存储 大数据 数据中心
提升数据中心能效的先进冷却技术
【5月更文挑战第27天】 在信息技术不断进步的今天,数据中心作为计算和存储的核心枢纽,其能源效率已成为评价其可持续性的关键指标。本文将探讨当前数据中心面临的热管理挑战,并展示一系列创新的冷却技术解决方案,旨在提高数据中心的能效,同时确保系统的稳定性和可靠性。通过对比传统冷却方法和新兴技术,我们将分析各种方案的优势、局限性以及实施难度,为数据中心运营者提供科学的决策参考。
|
6月前
|
机器学习/深度学习 数据采集 存储
提升数据中心能效:采用机器学习优化冷却系统
【5月更文挑战第28天】在数据中心的运营成本中,冷却系统的能源消耗占据了显著比例。随着能源价格的不断上涨和可持续发展的需求日益增长,如何降低这一开支成为业界关注的焦点。本文将探讨利用机器学习技术对数据中心冷却系统进行优化的方法。通过分析历史数据和实时监控,机器学习模型能够预测冷却需求并动态调整系统设置,以实现最佳的能效比。这种方法不仅能减少能源消耗,还能提高系统的可靠性和稳定性。
|
6月前
|
机器学习/深度学习 传感器 监控
利用机器学习优化数据中心冷却系统
【5月更文挑战第27天】 随着数据中心能耗的不断攀升,尤其是冷却系统的能源消耗占据了相当一部分比例,如何通过智能化手段提高冷却效率成为行业关注焦点。本文提出了一种基于机器学习技术的数据中心冷却系统优化方案,通过实时监控和数据分析,动态调整冷却策略,以达到节能减排的目的。实验结果表明,该方案能有效降低数据中心的PUE值(功率使用效能比),为绿色计算提供可行的技术路径。
|
6月前
|
机器学习/深度学习 算法 数据中心
利用机器学习优化数据中心冷却系统
【5月更文挑战第29天】 在数据中心的运营成本中,冷却系统占据了显著的比重。随着能源价格的不断攀升以及可持续发展的需求日益增加,开发高效、节能的冷却技术变得至关重要。本文将探讨如何应用机器学习算法来优化数据中心的冷却系统性能。通过对历史温度和负载数据的分析,我们训练了一个预测模型来动态调整冷却需求,实现按需冷却。结果显示,使用机器学习方法可以有效减少能耗,同时保持适宜的操作环境。
|
6月前
|
机器学习/深度学习 敏捷开发 测试技术
深入理解自动化测试:框架选择与实践挑战利用机器学习技术优化数据中心冷却系统
【5月更文挑战第27天】 在现代软件开发周期中,自动化测试已成为确保产品质量和加快市场投放的关键步骤。本文深入探讨了自动化测试的框架选择问题,并剖析了实施过程中面临的挑战及其解决方案。通过比较不同测试框架的特点,我们旨在为读者提供一套明确的指导原则,帮助他们根据项目需求做出恰当的技术决策。同时,文中还分享了实际案例和最佳实践,以期帮助开发团队克服实施自动化测试时可能遇到的障碍。