浸没式液冷让数据中心更“深绿”

简介:

伴随着SC15超算大会新一期世界HPC性能TOP500的公布,"天河二号"领衔的当今世界性能最强的500台超级计算机已经揭晓。然而,如果要比谁的性能能耗比最高、最"绿色",这些上榜的超级计算机系统恐怕要另有一番排列。

本次TOP500发布会也给出了这个问题的答案。按照Rmax(即最好的Linpack性能)和能耗之比重新排列,本次TOP500中11台电源效率最高的系统被遴选出来。其中,来自中科曙光的Sugon Cluster W780i高居第二位,堪称"绿色"中的"深绿"。

推出中国首款量产液冷服务器

高性能计算系统发展至今,需要解决的两大问题:性能和能耗。Sugon Cluster W780i就是通过采用由Nvdia提供的 GPU加速器异构系统来提高性能功耗比。除此之外,曙光的节能事业还有一项"秘密武器":液冷技术。

在今年6月举办的2015创新技术大会上,中科曙光就发布了中国首款可量产的液冷服务器:曙光TC4600E-LP冷板液冷服务器。与该服务器相配套的制冷解决方案能大幅降低整机功耗并降低机房噪音,机房全年PUE(负载耗能占比)可轻松降至1.20以下。服务器也因此得到了实现高密度、低噪音、低传热温差、自然冷却的效果。

值得一提的是,这款液冷服务器所需要的"冷却水"是很容易获得的30℃的水,不需用压缩机等装置。此外,在液冷环境中,服务器的CPU可超频运行,计算性能因此可提高12%.

有国外研究显示CPU核温每提高10℃,可靠性降低一半,液冷服务器的CPU核温比风冷极限温度可低20-30℃,CPU可靠性也得到了大幅度提高。"TC4600E-LP实际上是TC4600E服务器的液冷版本,以后曙光服务器都会同时开发液冷和风冷两种版本。"曙光数据中心产品事业部总经理沈卫东介绍说,该液冷技术的实现是通过将服务器最热的部分——高密度CPU的散热用液冷解决,与'浸没式'液冷有所区别。

未来液冷或颠覆行业创新

冷板式液冷服务器是业内液冷模式的一种,暂时尚未触及服务器物理外形的变革。而另外一种液冷模式——浸没式,则有可能在服务器架构上带来颠覆式改变。

"目前冷板式液冷技术不太会改变服务器现有的物理形态,只是用冷板代替了原来的CPU的散热片,这一步比较容易实现。" 沈卫东介绍说,浸没式则是"浸泡版"的冷板式,"冷板式实际上是一种中间替代方案,浸没式才是最终的结果。"

曙光公司近日在浸没式液冷服务器上也取得了重大突破。在本次SC大会上,中科曙光发布了其自主研发的新一代液冷展机——"RoboBlades浸没式液冷刀片服务器".沈卫东指出,该液冷展机的诞生为服务器浸没式液冷技术的产业化应用扫除了维护性障碍。

"未来的浸没式服务器或许是一个'缸':大量贴在一起的主板,紧凑地浸泡在这个'缸'里面。预计该结构服务器的功率密度可以20倍于今天的产品。沈卫东说:"随着浸没式液冷技术的应用和普及,未来服务器形态、制冷方式以及数据中心建设模式将迎来革命性变化。届时(浸没式液冷服务器)不但会抛弃现有服务器的外形,甚至会影响整个行业——除了冷却行业,他可能会影响到上游(如芯片设计等)很多行业。"

部署液冷服务器不会加大数据中心成本

液冷,顾名思义,液体注入服务器,通过冷热交换带走服务器的散热。目前曙光公司对液冷技术使用会使相应服务器的成本提高约30%-40%.不过,这并不会增加数据中心的建设成本。

"发热部件CPU和部分电源模块的热量占服务器的70%,采用液冷技术后可以减少2/3的风冷(设备)投入。"沈卫东指出,液冷系统不需要压缩机,替代空调机"肯定是便宜了",可降低数据中心基础设施投入。

如果不是新建机房而引入液冷服务器,综合考核液冷冷却器投入和风冷空调系统投入,液冷服务器所需的基础投入对风冷系统仍有优势,而服务器部分的"超支"一般可在1年到1年半在节能方面的表现回收成本。

此外,针对一些用户对液冷服务器液体泄漏的顾虑,曙光的技术团队调研了多种快速插拔方案,并在过去3年里做了大量的实验证实了其液冷服务器在该方面的可靠性。据悉,量产的TC4600E-LP液冷服务器已应用于建于曙光大厦的"地球数值模拟装置"原型系统上,如今正承担来自中科院大气所等单位所赋予的"解读地球"的计算任务。





====================================分割线================================


本文转自d1net(转载)

目录
相关文章
|
存储 人工智能 运维
阿里巴巴浙江云计算仁和液冷数据中心获评5A级(设计)绿色数据中心
9月15日,阿里巴巴浙江云计算仁和液冷数据中心在ODCC(开放数据中心委员会,以下同)2020峰会上获得数据中心绿色等级5 A(设计类)认证,成为全国首座绿色等级达5A的液冷数据中心。该数据中心绿色分级评估由ODCC联合中国信通院、TGGC(绿色网格,以下同)发起。阿里巴巴获得此项认证是2020年ODCC颁发的唯一一个5A设计类认证,是ODCC与绿色网格自2013年联合开展数据中心绿色等级评估以来颁发的全国第三个设计类5A等级奖牌,也是阿里巴巴继千岛湖数据中心获评5A绿色数据中心(设计)后又一座获此顶级殊荣的数据中心,再次展现了阿里巴巴数据中心的绿色节能实力。
|
7月前
|
存储 边缘计算 人工智能
探索现代数据中心的心脏:高效液冷技术
【5月更文挑战第20天】 在信息技术不断进步的今天,数据中心作为处理和存储海量数据的枢纽,其运行效率与可靠性至关重要。传统的空气冷却系统由于其局限性已逐渐不能满足高密度计算设备的需求。本文将介绍一种创新的冷却方案——高效液冷技术,分析其工作原理、优势以及面临的挑战,并探讨该技术在未来数据中心发展中的潜在应用。
|
人工智能 运维 大数据
技术、应用、突破——一场液冷研讨会,助你把握数据中心液冷产业未来122.228.85
技术、应用、突破——一场液冷研讨会,助你把握数据中心液冷产业未来122.228.85
|
存储 机器学习/深度学习 人工智能
东数西算下,液冷数据中心为何日趋重要?
液冷技术是数据中心优化的一个重要方向,也是未来数据中心技术发展的趋势之一。液冷服务器的应用可以帮助企业和机构提高数据中心的效率,降低能源成本,从而更好地应对数据处理方面的挑战。
东数西算下,液冷数据中心为何日趋重要?
|
数据中心
《阿里巴巴浸没液冷数据中心规范》电子版地址
阿里巴巴浸没液冷数据中心规范
332 0
《阿里巴巴浸没液冷数据中心规范》电子版地址
|
存储 人工智能 大数据
阿里云液冷技术荣获CDCC数据中心科技成果一等奖
阿里云液冷技术荣获CDCC数据中心科技成果一等奖
阿里云液冷技术荣获CDCC数据中心科技成果一等奖
|
数据中心
|
7月前
|
存储 传感器 监控
探索现代数据中心的冷却技术革新
【4月更文挑战第23天】 在信息技术迅猛发展的今天,数据中心作为计算和存储的核心枢纽,其稳定性和效率至关重要。然而,随着处理能力的增强,设备发热量急剧上升,有效的冷却方案成为确保数据中心持续运行的关键因素。本文将深入分析当前数据中心面临的热管理挑战,并探讨几种前沿的冷却技术,包括液冷系统、热管技术和环境自适应控制策略。通过比较不同技术的优缺点,我们旨在为数据中心管理者提供实用的冷却解决方案参考。
|
4月前
|
机器学习/深度学习 存储 监控
利用机器学习技术优化数据中心能效
【7月更文挑战第36天】在数据中心管理和运营中,能源效率已成为关键性能指标之一。随着能源成本的不断上升以及环境保护意识的增强,开发智能化、自动化的解决方案以降低能耗和提高能源利用率变得尤为重要。本文探讨了如何应用机器学习技术对数据中心的能源消耗进行建模、预测和优化,提出了一个基于机器学习的框架来动态调整资源分配和工作负载管理,以达到节能的目的。通过实验验证,该框架能够有效减少数据中心的能耗,同时保持服务质量。
|
7月前
|
存储 大数据 数据处理
探索现代数据中心的冷却技术
【5月更文挑战第25天】 在信息技术迅猛发展的今天,数据中心作为其核心基础设施之一,承载了巨大的数据处理需求。随着服务器密度的增加和计算能力的提升,数据中心的能耗问题尤其是冷却系统的能效问题日益凸显。本文将深入探讨现代数据中心所采用的高效冷却技术,包括液冷解决方案、热管技术和环境自适应控制等,旨在为数据中心的绿色节能提供参考和启示。