数据中心的“奇葩”散热方式

简介: 早前,Facebook、Google都将自家的数据中心建在寒冷的北欧国家。而前不久,有传言说微软计划在海底建数据中心,通过“极度深寒”来为服务器等设备降温。

为解决数据中心的散热问题,工程师们操碎了心。

早前,Facebook、Google都将自家的数据中心建在寒冷的北欧国家。而前不久,有传言说微软计划在海底建数据中心,通过“极度深寒”来为服务器等设备降温。

image.png

城会玩!

我们知道,数据中心有一个非常通用的考核指标——PUE(Power Usage Effectiveness),它是数据中心消耗的所有能源与IT负载使用的能源之比,其基准值为2,越接近1表明能效水平越好,绿色化程度越高。

统计数据表明,数据中心冷却功耗占到整体功耗的45%-50%,这就是PUE值高企的主要原因之一。也正因为如此,工程师们开始脑洞大开,为数据中心设计出各种“奇葩”的散热方式。

湖水制冷

阿里巴巴千岛湖数据中心采用湖水进行自然冷却,这使得其年平均PUE低于1.3,最低的时候可以达到1.17。

image.png

阿里巴巴千岛湖数据中心采用湖水制冷

据测算,阿里巴巴千岛湖数据中心90%的时间都可以单纯依靠湖水制冷,其制冷能耗降低80%,和目前国内平均水平相比,全年可节电千万度,碳减排一万多吨标煤。

从数据来看,阿里巴巴千岛湖数据中心已是非常牛x,但这还不算最牛x。

阿里巴巴千岛湖数据中心最牛x的是将自然、城市和科技进行了完美的结合。

据说,淳安县规划了一个青溪新城,它需要一条中央水景为城市增加活力,同时也计划成为市民休闲娱乐的场所。但是问题来了!尽管青溪新城被湖水环绕,但却并没有水源,所以需要抽取湖水。而仅仅为了一个景观水系,而每年耗费大量资金去抽水,这显然是不科学的。于是,阿里巴巴的工程师们就想到了湖水制冷的方法,这样既可以解决新城的景观水问题,也可以用更环保的方式为数据中心降温。

更为霸道的是,18-20度的湖水被抽上来,为千岛湖数据中心散热之后,再经过2.5公里的景观水道,返回到湖里时,其水温变化不大,而且所有指标均通过了环保部门的考评,因此对生态无任何不良影响。

海水/生活废水冷却

上善若水,水的确是一种好东西。

据测算,水能带走热量的能力比空气高4000倍;而且,数据中心的冷却系统并不需要纯净水,不仅江河湖海的水可以,甚至回收之后的生活废水也可以。

image.png

Google数据中心的冷却系统

Google则充分利用了海水进行散热,在芬兰的哈米纳建立了一座这样的数据中心。Google还与佐治亚州道格拉斯的污水管理局合作,通过使用生活废水来带走当地数据中心大部分的热量。

除了海水和生活废水,工程师们对于水的运用也发挥到了极致。Facebook等公司通过部署水处理厂和雨水收集系统,形成独立的供水系统,并以此为数据中心散热。

而坐落于瑞士空军原指挥与控制中心旧址之上的Deltalis Radixcloud数据中心则充分利用冷空气与冰川水两大丰富资源,将冷却成本降至最低。

目前,水冷已经被越来越多的数据中心采纳,并取得了良好的效果。

油冷散热

油冷散热其实是从水冷进化而来。相较于传统的水冷方式,油冷能够进一步降低能耗。

比如,加州大学的Flometrics Chilldyne酷弗洛负压液体冷却系统,吸取了NASA对火箭发动机和固定热插拔连接器进行冷却的灵感,也就是通过负液压系统隔离单个服务器。

这套系统比传统的液冷方式能够降低25%-35%的能耗。

而更早之前,Intel曾联合一家名为Green Revolution Cooling的公司,设计出一套采用矿物油进行降温的方案。

image.png

Intel的矿物油冷却

如果采用矿物油冷却技术,那么传统风冷所面对的灰尘问题不复存在,且能耗低得多。而与水不同的是,矿物油是非极性物质,不会对电子集成回路产生影响,对服务器内部硬件不会有损坏。做一个形象的类比,你的手机掉入水中,十有八九会出问题,而掉入油中的话,则不会出现问题。

为了考察矿物油冷却系统的能耗,Intel还做了为期一年的测试。最终的结果令人瞠目结舌,该系统的PUE低至1.02-1.03,已经非常非常接近极限值1。而传统的风冷数据中心,通常PUE都在1.8左右,比较来看,矿物油冷却系统拥有极为显著的节能效果。

热水冷却

热水冷却,这是要闹哪样?文科生表示不能理解。其实很简单,温度的冷热是相对的,只要热水的温度在一个合理的数值,就可以为数据中心降温。

因此,也不是所有的数据中心都建设在极寒之地,比如eBay在美国凤凰城的数据中心就处在沙漠之中。据说,这座数据中心的室外平均温度约为46摄氏度!这可怎么办?

image.png

eBay位于沙漠之中的数据中心

工程师们反其道而行之,采用了“非主流”的热水冷却技术实现降温。具体的解决办法是这样的,工程师们在数据中心外围的塔罐里注入了温度约为30.5摄氏度的“热水”,以此来避免数据中心的服务器过热,从而最终达到“冷却”的效果。

这种降温方式确实是够奇葩的,毕竟在常规的理解中,水温比较低的话会有更好的冷却效果。不过还有的问题是,这个数据中心的“热水”是从哪里来的?其带走的热量又到哪里去了?eBay也没有给出明确的说法。

目录
相关文章
|
数据中心
把服务器泡在液体里散热?阿里云推出黑科技:浸没式液冷数据中心 | 潮科技
这只“麒麟”属水。 把服务器泡在液体里散热?阿里云推出黑科技:浸没式液冷数据中心 | 潮科技 数据中心是耗能大户。根据IDC,到2024年数据中心耗电量将占到全社会耗电量的5%以上。其中,散热占到了数据中心非常大比例的电能消耗,有的甚至可以到一半以上。
3861 1
|
安全 数据中心 容器
4月26日云栖精选夜读:数据中心散热,阿里居然玩出了这些花样
随着“大数据时代”的到来,需要处理的数据逐年递增。全球互联网的普及也使其对硬件性能的要求越来越高。4月26日,阿里云在云栖大会·南京峰会上展示了黑科技——全浸没“凉得快”服务器麒麟,这是一种数据中心散热解决方案。
3067 0
|
大数据 数据中心
数据中心散热,阿里居然玩出了这些花样
4月26日,阿里云在云栖大会·南京峰会上展示了黑科技——全浸没“凉得快”服务器麒麟,这是一种数据中心散热解决方案。本文就为大家详解阿里云黑科技——“麒麟”。
8196 0
|
5月前
|
存储 传感器 监控
探索现代数据中心的冷却技术革新
【4月更文挑战第23天】 在信息技术迅猛发展的今天,数据中心作为计算和存储的核心枢纽,其稳定性和效率至关重要。然而,随着处理能力的增强,设备发热量急剧上升,有效的冷却方案成为确保数据中心持续运行的关键因素。本文将深入分析当前数据中心面临的热管理挑战,并探讨几种前沿的冷却技术,包括液冷系统、热管技术和环境自适应控制策略。通过比较不同技术的优缺点,我们旨在为数据中心管理者提供实用的冷却解决方案参考。
|
2月前
|
机器学习/深度学习 存储 监控
利用机器学习技术优化数据中心能效
【7月更文挑战第36天】在数据中心管理和运营中,能源效率已成为关键性能指标之一。随着能源成本的不断上升以及环境保护意识的增强,开发智能化、自动化的解决方案以降低能耗和提高能源利用率变得尤为重要。本文探讨了如何应用机器学习技术对数据中心的能源消耗进行建模、预测和优化,提出了一个基于机器学习的框架来动态调整资源分配和工作负载管理,以达到节能的目的。通过实验验证,该框架能够有效减少数据中心的能耗,同时保持服务质量。
|
5月前
|
存储 大数据 数据处理
探索现代数据中心的冷却技术
【5月更文挑战第25天】 在信息技术迅猛发展的今天,数据中心作为其核心基础设施之一,承载了巨大的数据处理需求。随着服务器密度的增加和计算能力的提升,数据中心的能耗问题尤其是冷却系统的能效问题日益凸显。本文将深入探讨现代数据中心所采用的高效冷却技术,包括液冷解决方案、热管技术和环境自适应控制等,旨在为数据中心的绿色节能提供参考和启示。