为解决数据中心的散热问题,工程师们操碎了心。
早前,Facebook、Google都将自家的数据中心建在寒冷的北欧国家。而前不久,有传言说微软计划在海底建数据中心,通过“极度深寒”来为服务器等设备降温。
城会玩!
我们知道,数据中心有一个非常通用的考核指标——PUE(Power Usage Effectiveness),它是数据中心消耗的所有能源与IT负载使用的能源之比,其基准值为2,越接近1表明能效水平越好,绿色化程度越高。
统计数据表明,数据中心冷却功耗占到整体功耗的45%-50%,这就是PUE值高企的主要原因之一。也正因为如此,工程师们开始脑洞大开,为数据中心设计出各种“奇葩”的散热方式。
湖水制冷
阿里巴巴千岛湖数据中心采用湖水进行自然冷却,这使得其年平均PUE低于1.3,最低的时候可以达到1.17。
阿里巴巴千岛湖数据中心采用湖水制冷
据测算,阿里巴巴千岛湖数据中心90%的时间都可以单纯依靠湖水制冷,其制冷能耗降低80%,和目前国内平均水平相比,全年可节电千万度,碳减排一万多吨标煤。
从数据来看,阿里巴巴千岛湖数据中心已是非常牛x,但这还不算最牛x。
阿里巴巴千岛湖数据中心最牛x的是将自然、城市和科技进行了完美的结合。
据说,淳安县规划了一个青溪新城,它需要一条中央水景为城市增加活力,同时也计划成为市民休闲娱乐的场所。但是问题来了!尽管青溪新城被湖水环绕,但却并没有水源,所以需要抽取湖水。而仅仅为了一个景观水系,而每年耗费大量资金去抽水,这显然是不科学的。于是,阿里巴巴的工程师们就想到了湖水制冷的方法,这样既可以解决新城的景观水问题,也可以用更环保的方式为数据中心降温。
更为霸道的是,18-20度的湖水被抽上来,为千岛湖数据中心散热之后,再经过2.5公里的景观水道,返回到湖里时,其水温变化不大,而且所有指标均通过了环保部门的考评,因此对生态无任何不良影响。
海水/生活废水冷却
上善若水,水的确是一种好东西。
据测算,水能带走热量的能力比空气高4000倍;而且,数据中心的冷却系统并不需要纯净水,不仅江河湖海的水可以,甚至回收之后的生活废水也可以。
Google数据中心的冷却系统
Google则充分利用了海水进行散热,在芬兰的哈米纳建立了一座这样的数据中心。Google还与佐治亚州道格拉斯的污水管理局合作,通过使用生活废水来带走当地数据中心大部分的热量。
除了海水和生活废水,工程师们对于水的运用也发挥到了极致。Facebook等公司通过部署水处理厂和雨水收集系统,形成独立的供水系统,并以此为数据中心散热。
而坐落于瑞士空军原指挥与控制中心旧址之上的Deltalis Radixcloud数据中心则充分利用冷空气与冰川水两大丰富资源,将冷却成本降至最低。
目前,水冷已经被越来越多的数据中心采纳,并取得了良好的效果。
油冷散热
油冷散热其实是从水冷进化而来。相较于传统的水冷方式,油冷能够进一步降低能耗。
比如,加州大学的Flometrics Chilldyne酷弗洛负压液体冷却系统,吸取了NASA对火箭发动机和固定热插拔连接器进行冷却的灵感,也就是通过负液压系统隔离单个服务器。
这套系统比传统的液冷方式能够降低25%-35%的能耗。
而更早之前,Intel曾联合一家名为Green Revolution Cooling的公司,设计出一套采用矿物油进行降温的方案。
Intel的矿物油冷却
如果采用矿物油冷却技术,那么传统风冷所面对的灰尘问题不复存在,且能耗低得多。而与水不同的是,矿物油是非极性物质,不会对电子集成回路产生影响,对服务器内部硬件不会有损坏。做一个形象的类比,你的手机掉入水中,十有八九会出问题,而掉入油中的话,则不会出现问题。
为了考察矿物油冷却系统的能耗,Intel还做了为期一年的测试。最终的结果令人瞠目结舌,该系统的PUE低至1.02-1.03,已经非常非常接近极限值1。而传统的风冷数据中心,通常PUE都在1.8左右,比较来看,矿物油冷却系统拥有极为显著的节能效果。
热水冷却
热水冷却,这是要闹哪样?文科生表示不能理解。其实很简单,温度的冷热是相对的,只要热水的温度在一个合理的数值,就可以为数据中心降温。
因此,也不是所有的数据中心都建设在极寒之地,比如eBay在美国凤凰城的数据中心就处在沙漠之中。据说,这座数据中心的室外平均温度约为46摄氏度!这可怎么办?
eBay位于沙漠之中的数据中心
工程师们反其道而行之,采用了“非主流”的热水冷却技术实现降温。具体的解决办法是这样的,工程师们在数据中心外围的塔罐里注入了温度约为30.5摄氏度的“热水”,以此来避免数据中心的服务器过热,从而最终达到“冷却”的效果。
这种降温方式确实是够奇葩的,毕竟在常规的理解中,水温比较低的话会有更好的冷却效果。不过还有的问题是,这个数据中心的“热水”是从哪里来的?其带走的热量又到哪里去了?eBay也没有给出明确的说法。