绿色数据中心 靠奇葩的散热降低能耗并不一定适用

简介:
在节能减排的大背景下,如何打造绿色节能的数据中心,降低能耗,控制成本,工程师们为此操碎了心。的确,在数据量爆增的当下,数据中心的节能减排问题已经引起了各大企业的足够重视,为了降低数据中心的能源消耗,工程师们使出了浑身解数,例如把数据中心建在冰川或者海底下,把服务器放到矿物油中散热,利用热水散热等等。首先,我们来盘点一下数据中心各种“奇葩”散热方式。
 
1)将数据中心建在南北极
 

 
将数据中心建在南北极,利用自然环境进行散热,从2011年开始,Facebook就宣布了在瑞典北部的卢雷亚(Lulea)建立该数据中心,以有效利用当地的可再生能源,确保绿色环保。另外,美国国家科学基金会也计划在南极运行一个数据中心。不过,考虑到生存条件、气候、环境和电力、传输线路等因素的影响,在南北极建立数据中心的难度将非常大。
 
2)在海底建立数据中心
 

 
由于水的散热效率比空气更高,因此很多科学家正在努力研究如何利用水资源对数据中心进行散热。据了解,美国微软公司正在试验水下数据中心,探索利用海水解决数据中心的制冷和供电两大问题,降低运行成本。报道称,从去年开始,在美国西部加利福尼亚州一处海域微软首次对一个水下数据中心的原型机进行测试,该原型机设在一个直径约2.4米的钢质圆柱形密封舱内,被放置于海面以下约9米处。研究人员在位于美国西北部华盛顿州的微软总部办公室对它进行操控。该水下数据中心原型机装配了100多个传感器,可以感知压力、湿度等状况,帮助研究人员更好地了解它在水下环境的运行情况。由于原型机运转良好,研究人员不仅延长了测试时间,还用它来运作微软云计算服务的商业数据处理项目。据了解,为期3个多月的测试取得了超出预期的成功。
 
3)利用油冷为数据中心散热
 

 
油冷散热其实是从水冷进化而来,由于矿物油是非极性物质,不会对电子集成回路产生影响,对服务器内部硬件不会有损坏,因此如果将服务器浸入到特殊的油液中,就可以很好的提高散热效率。在很早之前,Intel联合一家名为Green Revolution Cooling的公司设计出一套采用矿物油进行降温的方案,并进行了为期一年的测试,最终的结果令人瞠目结舌,该系统的PUE低至1.02-1.03,已经非常非常接近极限值1。
 
4)利用海水/湖水/废水进行散热
 

 
在众多五花八门的散热解决方案中,利用海水/湖水/废水进行散热是最靠谱的,也是有成功的解决方案的。例如阿里巴巴千岛湖数据中心采用湖水进行自然冷却,这使得其年平均PUE低于1.3,最低的时候可以达到1.17。Google则充分利用了海水进行散热,在芬兰的哈米纳建立了一座这样的数据中心。Google还与佐治亚州道格拉斯的污水管理局合作,通过使用生活废水来带走当地数据中心大部分的热量。
 
5)利用热水进行散热
 

 
这种反其道而行之的散热方式看起来比较奇葩,但的确存在这样的数据中心。例如eBay在美国凤凰城的数据中心就处在沙漠之中,这座数据中心的室外平均温度约为46摄氏度,为了解决散热难题,工程师们反其道而行之,采用了“非主流”的热水冷却技术实现降温。具体的解决办法是在数据中心外围的塔罐里注入了温度约为30.5摄氏度的“热水”,以此来避免数据中心的服务器过热,从而最终达到“冷却”的效果。至于热水来源和散热效果,官方并没有回应。
 
笔者认为,这些五花八门的散热方式,确实可以大幅降低数据中心的能耗,但并非全部适用。其中,绝大部分数据中心的建设仍然不会采取这些“奇葩”散热方式。分析原因主要有以下几个方面:
 
一是建设投入成本过高。解决数据中心能耗的关键是降低运营成本,如果前期建设投入的成本过高,相信不会有企业投入这样的项目,像以上所述的海底数据中心、油冷数据中心等,即使技术已经足够成熟,前期肯定要花费巨额的投资,没有巨额的资金难以支撑这样的项目。
 
二是技术不够成熟。以上五花八门的数据中心散热方式,很多都是在验证阶段,技术并不成熟,实现起来将是困难重重。例如在南北极建立数据中心,虽然看起来很美,但面对南北极复杂的地理、气候等环境,如果解决电力供应、线路布置等一系列难题呢?更不用说建成之后每年花在它们身上的维护运营成本了。
 
或者,以上奇葩的散热方式可能会在日后成为数据中心的主流散热方式,但至少在今天,传统的风冷、水冷散热方式仍然是无可替代的。当然,除了通过更好的散热方式解决数据中心能耗问题外,笔者认为通过以下方式,也可以有效的控制能源,提高数据中心的效率。
 
1)集中存放高利用率的数据服务器,并用全闪存替代机械硬盘。对于一些数据读取频繁的数据中心,可以采用集中存放的方式进行管理。这样的好处是可以根据不同的数据中心规划不同的散热解决方案,例如高负载的数据中心全部采用发热量更低的全闪存存储,以降低硬件的发热量,同时采用更高效的散热方式确保数据中心的稳定运行。而对于那些负载较低的数据中心,则可以单独规划散热系统,这样可以根据数据中心的不同设计不同的散热方案,让散热设备更好的为数据中心服务。
 
2)加强数据中心监控,提高数据中心的利用效率。利用专业的监控软件实时监控数据中心各服务器的工作状态,发现低效能的服务,让无谓耗电的Ghost服务器无处藏身。
 
3)规划合理的机房布线也可以有效的解决数据中心散热难题。空气流动的空间越大,热空气移除和冷空气循环所耗费的能源就越少。使用综合布线不但能够极大减少电缆用量,从而缓解通道拥挤和气流阻塞情况。大型数据中心热管理的布线应该遵守以下黄金法则:
 
一是使用综合布线系统限制气流阻塞;
 
二是合理设计和管理架空地板下的电缆;
 
三是高压电缆敷设在冷通道的地板下;
 
四是低压通信线缆放在机柜下或直接放在热通道地板下;
 
五是减少天花板的数量,或只是在有源机柜上方放置天花板。
 
以上,是笔者对绿色数据中心建设的一些看法,你也可以分享自己观点,共同探讨。

本文作者:ZC

来源:51CTO
相关文章
|
1月前
|
机器学习/深度学习 监控 算法
探索现代数据中心的绿色革命
随着信息技术的飞速发展,数据中心作为数字基础设施的核心,其能源消耗和环境影响日益成为全球关注的焦点。本文将深入探讨现代数据中心在实现能效优化与环保目标方面所采取的创新技术与策略,包括最新的冷却解决方案、能源管理系统以及可持续能源的利用等。通过分析这些技术的实际应用案例,揭示数据中心行业如何平衡效率与生态责任,推动着一场静悄悄的绿色革命。
18 4
|
29天前
|
机器学习/深度学习 数据采集 算法
利用机器学习优化数据中心的能耗管理
在数据中心管理和运营领域,能耗优化是提高经济效益和环境可持续性的关键。本文提出了一种基于机器学习的方法来优化数据中心的能源消耗,通过实时监控与智能调节系统参数以降低总体能耗。研究采用多种算法对比分析,包括监督式学习、非监督式学习以及强化学习,并在此基础上设计出一套综合策略。该策略不仅提升了能效比(PUE),还保证了系统的高可靠性和性能稳定性。文章的结构首先介绍数据中心能耗管理的重要性,然后详细阐述所提出的机器学习模型及其实现过程,最后通过实验结果验证了方法的有效性。
|
11月前
|
传感器 运维 监控
绿色数据中心的“减碳”革命
绿色数据中心的“减碳”革命
|
11月前
|
缓存 编解码 边缘计算
AMD:赋能绿色数据中心的“普惠”价值
AMD:赋能绿色数据中心的“普惠”价值
|
11月前
|
人工智能 运维 安全
绿色低碳,重构下一代数据中心新秩序
绿色低碳,重构下一代数据中心新秩序
|
11月前
|
人工智能 运维 安全
华为绿色数据中心,为“东数西算”铺设一条低碳之路
华为绿色数据中心,为“东数西算”铺设一条低碳之路
华为绿色数据中心,为“东数西算”铺设一条低碳之路
|
11月前
|
人工智能 安全 大数据
华中最大的绿色零碳数据中心集群“落户”三峡
华中最大的绿色零碳数据中心集群“落户”三峡
|
11月前
|
SQL 人工智能 安全
把数据中心放到北极圈,也许都没这条绿色计算之路收益高
把数据中心放到北极圈,也许都没这条绿色计算之路收益高
|
4天前
|
存储 传感器 监控
探索现代数据中心的冷却技术革新
【4月更文挑战第23天】 在信息技术迅猛发展的今天,数据中心作为计算和存储的核心枢纽,其稳定性和效率至关重要。然而,随着处理能力的增强,设备发热量急剧上升,有效的冷却方案成为确保数据中心持续运行的关键因素。本文将深入分析当前数据中心面临的热管理挑战,并探讨几种前沿的冷却技术,包括液冷系统、热管技术和环境自适应控制策略。通过比较不同技术的优缺点,我们旨在为数据中心管理者提供实用的冷却解决方案参考。
|
1月前
|
存储 定位技术 数据中心
探索现代数据中心的冷却技术革新
在这篇文章中,我们将深入探讨现代数据中心冷却技术的最新进展。随着数据量的激增和计算能力的提升,数据中心的能效和散热问题变得日益重要。文章将介绍几种创新的冷却方法,包括液冷系统、热管技术和环境冷却集成设计,并讨论它们的工作原理、优势以及面临的挑战。通过这些技术的比较,我们旨在为数据中心管理者提供决策支持,以实现更高效、可持续的运营。
33 1