什么!建设数据中心还得看风水?

简介:

在中国的传统建筑文化中,风水绝对是不能忽略的,不管是帝王广厦还是百姓茅草,都包含了风水讲究。在中国房地产火热的今天,购房者也多多少少从风水角度挑着房子。但是你听说过大型商用的数据中心建设也需要先看风水么?难道风水好的数据中心从不宕机?

什么!建设数据中心还得看风水?

数据中心的“风水”可不是迷信

相比中国传统的风水理论,数据中心所看重的风水则更加贴合实际。以整体架构来划分,目前的主流的数据中心已经进入第三代,并开始向第四代演进。第一代和第二代数据中心分别诞生于20世纪40和70年代,当时数据中心多是政府、军队、科研机构或者大企业的专属,选择的“风水宝地”也多是开阔且隐秘的地方(因为服务器体积庞大且要求保密)。

而从1995至今,随着互联网的兴起,国内大部分数据中心进入第三代,风水的选择不再仅是地域的选择,开始向内部架构的建设上演变,希望更合理的利用“风”(此时主要是空调风)来实现更低的PUE。因此,原始的空调制冷开始有了新的变化,一是将冷热通道分离,另一种则是冷热混合,这都是追求低PUE的产物。但是随着互联网和各行各业数据中心规模的膨胀,数据中心制冷所需的能耗也在飞速提升,空调制冷虽然能够保证服务器良好运转,但是数据中心的TCO却长期居高不下。

 什么!建设数据中心还得看风水?

典型的下送风和冷热风道分离

第四代数据中心,如何用自然的风和水?

为了降低TCO,近年,第四代数据中心的概念被提出,低PUE、低TCO、模块化、智能化、绿色化是第四代数据中心的显著特征,目前国内的互联网领先企业也开始建立或者筹划建立第四代的数据中心。巧合的是,风和水也在第四代数据中心成了关键角色。

为什么第四代数据中心需要风和水,前三代数据中心就不需要吗?当然需要,只不过前三代数据中心基本是靠空调制冷,所以和自然的风水成了远亲。而第四代数据中心一般是两种方式:一是利用自然风,将自然风吸入,进行一定加湿,达到标准湿度后吹进机房。二是自然风冷结合水冷方式,液体水对关键部件散热,比如CPU、内存,冷风辅助。不管是哪种方式,都依赖于外界环境,也就是说大自然的温度不能太高,一般是把21℃定位门槛,半年以上时间低于此温度才有意义。在中国的西北和东北还可以,可是在最发达的中东部,那就没什么意义了。

什么!建设数据中心还得看风水?

我国年平均气温分布度

浪潮E系高温耐腐蚀服务器,温度提升15℃,三年生命周期节省1000万

如何解决地域问题带来的限制?最有效的办法是:使用耐高温服务器。目前,中国大部分的IDC,温度控制在30度以下,甚至25度以下,目的是保障服务器良好散热,从而稳定运行。这样的IDC就不用谈降低PUE了,因为不能从根本解决问题。根本是什么?空调等制冷系统的电力消耗,所以服务器的耐高温能力至关重要。

什么!建设数据中心还得看风水?

Facebook新风数据中心和系统原理

为了能够适合第四代数据中心新风制冷的需求,浪潮推出E系高温耐腐蚀服务器,采用更为耐高温的部件,可以在更严酷的机房环境中正常工作目前已经覆盖浪潮互联网行业定制化服务器全系列产品。经过严格的测试数据表明,浪潮E系高温耐腐蚀服务器可在在35℃环境下正常运行无性能损失,40℃环境下数月运行无性能损失,45℃环境下运行24小时无宕机。假设一个IDC部署的服务器最高可以容忍35度的环温,那么环温完全可以由25度提升到32度(预留一点余量),可以减少一组空调。如果可以容忍40度甚至45度的高温呢?

以某国内顶级互联网公司在山西的数据中心为例,其新风数据中心单模块可容纳约9600台服务器节点,采用空调制冷并进行冷热通道隔离等优化措施,PUE可以达到1.37,按照实际供电情况来看,IDC的总功耗约为385万瓦,其中IT设备的总功耗约280万瓦,空调制冷设备的功耗约为96万瓦。使用浪潮E系高温耐腐蚀服务器并配合新风系统后,新风机房温度由25℃上升为37.5℃,PUE将由传统数据中心的1.3降低到1.1,那么按9600台服务器节点整体能耗将能降低46万瓦(去除了因环境温度提升带来的服务器单机功耗提升),按照0.8元/度的价格来算,每年可以节省约370百万的电费,三年节约费用1100万左右!

新风制冷的隐患,如何防止元器件被腐蚀?

上面提到,新“风”将会极大降低数据中心的TCO,那么“水”对于数据中心会有什么影响?水,则要分为两种,一种是空气中存在的水汽,另一种则是受到金属管约束的制冷水。众所周知,采用水冷可以将数据中心的制冷效率提升,并有效降低TCO。而空气中无处不在的水汽,则是新风数据中心的隐患。

第四代数据中心吸入的自然空气需要控制湿度在夏季45%-65%,冬季40%-70%,空气中的水可以防止静电给服务器带来的损害。但是这种把自然空气直接抽入,仅做简单的湿度调节就送入数据中心的做法,如果在一个度假胜地那没什么问题,但是在污染严重的地带,比如中国的山西那将无异于是自杀行为。因为空气中的超标的硫化物、氢化物在温湿度适宜的情况下,会与空气中的悬浮水珠相融,形成酸性的环境,造成PCB的铜箔、电子器件腐蚀,从而产生大面积的宕机,造成不可挽回的损失。所以在追求PUE时如何保障IT设备的寿命,就成了关键课题。

 什么!建设数据中心还得看风水?

耐腐蚀主板在紫外线下成像

其实很简单,雾霾的时候,人们出行都带口罩防霾,那么给服务器也武装起来。所以在新风机房支持耐高温的同时,耐腐蚀是必不可少的。浪潮E系高温耐腐蚀服务器主板表面采用薄膜三防涂覆层工艺,通过了GB/T 2423.51-2000及IEC60068-2-60流动混合气体腐蚀试验,能够有效隔离主板和空气,使腐蚀性空气无法直接接触主板,拒绝空气腐蚀。同时关键部件,如电源模块,SAS卡,网卡,背板等均采用三防涂覆工艺,保障整机系统具有耐腐蚀特性,彻底拒绝空气中硫化物、氢化物对设备的腐蚀,保证正常使用寿命,为服务器增强”免疫力”,无惧空气污染。

据权威机构调查显示,我国每年用于服务器的电源和冷却的总开支超过了20亿美元。利用新风技术,可在春、秋、冬季引入室外低温空气,关闭精密空调,节省约25%左右的数据中心制冷能耗。浪潮E系高温耐腐蚀在基本不增加设备成本的前提下,实现耐高温和耐腐蚀双重特性,保障新风数据中心服务器集群稳定高效运转。

 什么!建设数据中心还得看风水?

浪潮SA5212E4高温耐腐蚀服务器

浪潮E系高温耐腐蚀服务器已经覆盖浪潮互联网行业主流服务器机型,包括互联网2U计算存储均衡类服务器SA5212E4、1U偏计算类服务器SA5112E4、NF5180E4,浪潮2U旗舰服务器NF5280E4。并且SmartRack高密度存储节点SN6115M4s也可支持高温耐腐蚀特性,在降低数据中心TCO的同时,满足客户在分布式存储、高密度计算、云计算等业务应用的需求。目前,浪潮E系高温耐腐蚀服务器已在百度取得批量部署,并通过1年以上实际测试,服务器表现稳定、出众。


原文发布时间为:2016-08-03 

本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。



相关文章
|
7月前
|
存储 传感器 监控
探索现代数据中心的冷却技术革新
【4月更文挑战第23天】 在信息技术迅猛发展的今天,数据中心作为计算和存储的核心枢纽,其稳定性和效率至关重要。然而,随着处理能力的增强,设备发热量急剧上升,有效的冷却方案成为确保数据中心持续运行的关键因素。本文将深入分析当前数据中心面临的热管理挑战,并探讨几种前沿的冷却技术,包括液冷系统、热管技术和环境自适应控制策略。通过比较不同技术的优缺点,我们旨在为数据中心管理者提供实用的冷却解决方案参考。
|
4月前
|
机器学习/深度学习 存储 监控
利用机器学习技术优化数据中心能效
【7月更文挑战第36天】在数据中心管理和运营中,能源效率已成为关键性能指标之一。随着能源成本的不断上升以及环境保护意识的增强,开发智能化、自动化的解决方案以降低能耗和提高能源利用率变得尤为重要。本文探讨了如何应用机器学习技术对数据中心的能源消耗进行建模、预测和优化,提出了一个基于机器学习的框架来动态调整资源分配和工作负载管理,以达到节能的目的。通过实验验证,该框架能够有效减少数据中心的能耗,同时保持服务质量。
|
7月前
|
存储 大数据 数据处理
探索现代数据中心的冷却技术
【5月更文挑战第25天】 在信息技术迅猛发展的今天,数据中心作为其核心基础设施之一,承载了巨大的数据处理需求。随着服务器密度的增加和计算能力的提升,数据中心的能耗问题尤其是冷却系统的能效问题日益凸显。本文将深入探讨现代数据中心所采用的高效冷却技术,包括液冷解决方案、热管技术和环境自适应控制等,旨在为数据中心的绿色节能提供参考和启示。
|
7月前
|
人工智能 监控 物联网
探索现代数据中心的冷却技术
【5月更文挑战第27天】 在信息技术迅猛发展的今天,数据中心作为信息处理的核心设施,其稳定性和效率至关重要。而随着计算能力的提升,数据中心面临的一个重大挑战便是散热问题。本文将深入探讨现代数据中心冷却技术的进展,包括传统的空气冷却系统、水冷系统,以及新兴的相变材料和热管技术。通过对不同冷却方式的效率、成本及实施难度的分析,旨在为读者提供一份关于数据中心散热优化的参考指南。
|
7月前
|
机器学习/深度学习 资源调度 监控
利用机器学习技术优化数据中心能效
【5月更文挑战第30天】在数据中心管理和运营中,能源效率的优化是降低运营成本和减少环境影响的关键。本文旨在探讨如何应用机器学习技术来提升数据中心的能源效率。通过对现有数据中心运行数据的深入分析,开发预测性维护模型,以及实施智能资源调度策略,我们可以显著提高数据中心的能效。本研究提出了一种集成机器学习算法的框架,该框架能够实时监控并调整数据中心的能源消耗,确保以最佳性能运行。
|
7月前
|
存储 大数据 数据中心
提升数据中心能效的先进冷却技术
【5月更文挑战第27天】 在信息技术不断进步的今天,数据中心作为计算和存储的核心枢纽,其能源效率已成为评价其可持续性的关键指标。本文将探讨当前数据中心面临的热管理挑战,并展示一系列创新的冷却技术解决方案,旨在提高数据中心的能效,同时确保系统的稳定性和可靠性。通过对比传统冷却方法和新兴技术,我们将分析各种方案的优势、局限性以及实施难度,为数据中心运营者提供科学的决策参考。
|
7月前
|
存储 传感器 人工智能
探索现代数据中心的冷却技术革新
【5月更文挑战第18天】 在数字化时代,数据中心作为信息处理与存储的核心设施,其稳定性和效能至关重要。随着计算需求的激增,数据中心的冷却系统面临着前所未有的挑战。传统的空调冷却方法不仅耗能巨大,而且效率低下。本文将深入探讨现代数据中心冷却技术的最新进展,包括液冷技术、热管应用、环境辅助设计以及智能化管理等方面,旨在提供一种高效、可持续且经济的解决方案,以应对日益增长的冷却需求。
|
6月前
|
移动开发 监控 前端开发
基于 HTML5 WebGL 和 VR 技术的 3D 机房数据中心可视化
基于 HTML5 WebGL 和 VR 技术的 3D 机房数据中心可视化
|
7月前
|
机器学习/深度学习 存储 监控
利用机器学习技术优化数据中心能效
【5月更文挑战第11天】 在云计算和大数据的背景下,数据中心作为信息处理的核心设施,其能效问题一直是研究的热点。传统的能效管理方法难以应对日益增长的能源消耗和复杂多变的工作负载。本文提出一种基于机器学习技术的数据中心能效优化方案,通过实时监控和智能调度策略,有效降低能耗并提升资源利用率。实验结果表明,该方案能够减少约15%的能源消耗,同时保持服务质量。
|
7月前
|
机器学习/深度学习 数据采集 资源调度
利用机器学习技术优化数据中心能效
【5月更文挑战第27天】 在本文中,我们探讨了一种基于机器学习的技术框架,旨在实现数据中心能效的优化。通过分析数据中心的能耗模式并应用预测算法,我们展示了如何动态调整资源分配以减少能源消耗。与传统的摘要不同,此部分详细阐述了研究的动机、使用的主要技术手段以及期望达成的目标,为读者提供了对文章深入理解的基础。