数据中心的节能问题一直以来都是一个备受行业内企业、专家以及用户关注的话题,对于很多数据中心服务的提供者们来说,如何降低数据中心的能耗,从而提升企业在数据中心领域所进行的各种测验和尝试就变得十分重要了。
对于日常数据中心能效测量的数值有一个叫做能源利用率比率的参考数值,较低的比率说明利用率更好,1.0是能源利用率的理想目标。能源利用率是数据中心电力成本总额与转化为有效计算任务的数量之间的对比值。2.0比率的常见价值含义意味着数据中心一台服务器测试时原来消耗的2瓦能源下降到了1瓦。
那么对于数据中心的日常建设和实际应用等方面来讲,我们究竟该如何去做才能更加有效的降低数据中心所产生的能耗,从而更好的促进数据中心在节能方面的优势提升呢?本文笔者就结合一些专家的观点,来为大家展示一些具体的方法。
把数据中心温度提高
我们都知道,一般数据中心的温度会设置在68华氏度或者更低的数值左右,那么如果我们在可控范围内调整数据中心内部的温度,将数据中心内部的温度调高,那么在逻辑上就有可能延长内部设备的使用寿命,同时也能够让制冷设备在发生故障的时候能够拥有更多的时间做出反应。
有业内专家曾经指出,当服务器的硬件发生故障的时候,比如像内部的存储介质、硬盘等等出现故障,那么确实会在一定程度上增加系统在操作过程当中所产生的热量,谷歌能源方面负责人就曾表示,80华氏度作为一个新设定值是可以安全使用的,但数据中心需要满足一个简单的先决条件:尽可能将冷空气流和热空气流分开,如果需要的话,使用窗帘或者固体屏障。
关掉没有使用的服务器
随着大数据和云计算技术的不断发展,使得用户对于数据的使用、应用需求开始变得猛增,这就出现了虚拟化等技术来为传统的硬件设备,硬件架构减轻负担的模式,在现实应用中,服务器是从日常通过频繁发生的能量循环(比如汽车和医疗设备)的那些设备中使用的同样组件来构建的。没有证据现实任何降低的MTBF(即平均故障间隔时间)作为能量循环服务器所能承受的一个结果。
如果我们必须重新启动一台服务器来适应强化负载,那么不管导入的速度有多快都是用户所不能等待的。不过大部分应用软件体系架构对于新用户来说都是陌生的,因为简化流程需求要更加缓慢,因此用户不知道他们正在等待服务器启动。
使用外部空气进行制冷
这点也是为什么现在那么多的数据中心都建设在严寒地带,或者风沙巨大地区的原因,其非常重要的一个原因就是如果把数据中心建在这种地方就可以利用更多的“免费”冷气来为数据中心进行制冷,从而在提升数据中心制冷效果的同时还降低了制冷成本。
实现这种效果所需的努力比节能方法一种提高数据中心温度这种权益之计要更加耗时耗力:你必须变更输送通道来引入外部空气,部署基本的安全措施,比如空气过滤器,湿气清除装置,防火档板和温度传感器,以此来确保外部空气不会破坏敏感的电子元件。
在数据中心内使用直流电
虽然直流电在过去应用的非常普遍,直流电在本世纪初广受欢迎,因为这个时期的服务器电源只能保证数据中心的效率实现75%。但是发展到现在,电源的效率已经得到了改进,数据中心电源已经升级到了更加高效的208伏特的交流电。到2007年,直流电逐渐淡出了人们的视野。之后到了2009年,直流电受益于高电压数据中心产品的推出,又重新强势回归。
在最早期的数据中心里,16000伏交流电的电源首次转变为110伏的交流电,之后又发展到220伏交流电,最后又演变为当下服务器所使用的110伏交流电。由于不到100%的效率,每次转变都会浪费能源,损失的能源又作为热量散失了。转换到208伏的交流电能消除一次转换,服务器内部的电源以95%的效率运行,就无法获到节能效果。
本文转自d1net(转载)