制冷量系数(CCF)在数据中心的价值-阿里云开发者社区

开发者社区> 开发与运维> 正文
登录阅读全文

制冷量系数(CCF)在数据中心的价值

简介:

目前数据中心的平均制冷量几乎是IT热负荷的四倍。本文将介绍一个简单实用的标准――制冷量系数(CCF),说明如何通过将CCF作为参照衡量数据中心冷却效率的标准,从而实现降低成本的机会。

制冷量系数(CCF)计算公式:

CCF通过将制冷量设备总额定制冷量(千瓦)除以IT设备关键负载(千瓦)的110%来计算。

在 Uptime调研的45个数据中心中,平均运行制冷量是IT热负荷的3.9倍(390%)。其中一个案例中,制冷量是热负荷的30倍(3000%)。很难相信已经如此,数据中心依然低效的。

当运行制冷量远远大于需要制冷量时,可以通过关闭精密空调、选择直接变速风扇或带变频器(VFD)的精密空调可以降低室外机风扇转速,从而降低运营成本。

很多数据中心都将很关注如何提高、改善制冷效率,但却不知道仅仅通过改进气流组织( AFM)平均每年就可以减少运营费用约32,000美元。

改善气流组织不仅能够提高制冷效率、节约运行成本,同时还能提高IT设备运行的可靠性。由于制冷设备的成本投入占是整个基础设施成本的一半,对此,做好气流组织管理,不仅碳排放减少,制冷效率提高,PUE值也随之降低,这是运维人员以及管理人员最乐于看到的场面。

(PUE(Power Usage Effectiveness):能耗使用效率,PUE值是指数据中心消耗的所有能源与IT负载消耗的能源之比。即PUE = 数据中心总设备能耗/IT设备能耗,PUE是一个比率,基准是2,越接近1表明数据中心的能效水平越好,能效越低。)

改善气流组织同样也可以有效地利用冗余制冷量,企业可以无需增加添置制冷设备的投入,而提高服务器的密度。制冷量利用率得到改善还可以延长数据中心的寿命,延迟构建新数据中心所需的资本支出。

提高冷却效率解决方案有很多,比如安装在机柜里的盲板,简单却有效。当涉及每一项新的“最佳方法”潜在利益宣传比比皆是时,要能分辨出来哪些方法是真正可以发挥作用的呢?使用此方法,能在数据中心部署更多的IT设备吗?能为数据中心消除热点或降低PUE值吗?改进气流组织可以给数据中心带来哪些的变化?要做出是增加制冷设备还是进行气流组织改造,需要首先明确当前资源的利用程度。

计算CCF是确定制冷基础设施利用率的最快、最有效的方法,通过改善气流组织可以获得更低的CCF,从而降低运营成本。

1)过去数据中心都是“传统”的设备布局方式――所有IT设备都面向同一个方向放置。这样布局虽美观,但是会导致精密空调送风回风气流组织的混合,使得数据中心内有非常差的气流循环,为解决局部热点问题,过去的运维人员会将精密空调温度调低并使用额外的精密空调来解决局部热点问题。

2)通常当数据中心投入使用时,即使其热负荷并不高,也会启用所有精密空调,保持运行状态。即使服务器负载逐渐增加,数据中心总负载依旧比运行的制冷量低。

3)运维人员难以冷却房间内的某个角落时,他们经常去咨询精密空调制造商。由于没有把运行的制冷量与热负荷进行比较,简单认为问题是由于缺乏制冷量造成的。气流组织不理想的真正原因还没有找到,就要购买新的精密空调。

现场调查结果――几乎每个数据中心都有改善的机会

从45个数据中心的评估收集的现场数据显示,有些统计结果是非常令人惊讶的。图1显示各种形式和规格的数据中心具备的明显可以改进的机会。

  图1

45个数据中心的CCF平均值为3.9 ,也就是说运行制冷量是数据中心热负荷的3.9倍( 390%)。运行意味着在计算中仅考虑运行的(没有考虑备份)精密空调的数量。许多数据中心已经关闭房间里一些多余的精密空调。

  图2理想的平均制冷量系数(CCF)

图2显示所调研的45个数据中心中每个数据中心的CCF数据。制冷量过度的问题不是小型、不太成熟的数据中心所独有的。调研中的五个最大的数据中心CCF的平均值为2.4 ,显著优于总体平均水平3.9,但仍然超过所需制冷量的两倍。

高架活动地板旁通开放区域是由未密封的电缆出口和开孔以及放置在冷通道或开放区域的风口地板组成。旁通开放区域的面积百分比等于旁通开放区域的面积除以高架活动地板上的总开放面积。这个百分比应该小于10%。

数据中心中最重要的指标是热点(最高进风温度)与冷点(最低进风温度)的百分比,该指标数值应该为零。计算包括至少一组需要冷却的IT设备的机柜数量以及设定进风温度,通过这些数据可以准确的算出热点与冷点的百分比。在45个数据中心中,只有9个数据中心( 20%)没有发现局部热点。调研的最后8个数据中心收集的冷点的数据表明,只有一个数据中心没有冷点。

  图3显示每个数据中心中包含热点或冷点的机柜百分比的数据。

数据中心制冷基础设施比任何其它基础设施组成部分的设备都更耗电。到目前为止,使用风口地板是最简单和最廉价的管理气流组织和制冷资源的方式,只有77%风口地板被正确放置的。在这次调研中,只有6个数据中心正确放置它们所有的风口地板。风口地板不应放在开放空间或热通道。

数据中心的共性:忽视气流组织改善效果

随着行业的不断发展,运维人员面临着前所未有的挑战――不断增加的IT设备的负载,以及降低运营费用的压力。通常,管理人员会寻求先进的气流组织解决方案,比如通道遏制系统。但在许多情况下,由于忽视气流组织基本原理,这些努力并没有达到预期目标。除非同时设法解决气流组织基本原理应用的问题,否则即使去做,也无法达到改善的目标。

  (备注:1华氏度(℉)=-17.2222222摄氏度(℃)

机柜底部温度51.5华氏度=10.6摄氏度

机柜顶部温度80.7华氏度=27摄氏度)

图4显示位于机柜底部的IT设备的进风温度与完全遏制冷通道顶部的进风温度的明显差异

冷却气流是通过冷通道内的风口地板被传送机柜正面,气流量的不足,造成图上显示的温度差异。再加上,遏制通道内在机柜内IT设备之间有开放空间,冷却气流和废气都涌入该空间,这也是造成温度差异的原因。因此即使安装冷通道密封,数据中心的CCF值仍然达到3.8 ( 380 ),IT设备进风温度并没有得到改善。事实上,更具有改观的气流组织解决方案应该系统的从上至下解决气流组织系统中所有的问题,而不是认为解决某一点的问题,就可以达到解决全部问题的效果。

数据中心另一种通常不恰当地解决方案是采用带有轴流风扇的风口地板,采用这种风口地板的劣势在于当你解决热点问题后,其余相邻设备会出现气流组织不好的问题,同时会增加一定的电力负荷。在大多数情况下,处理好高架活动地板开口问题就可以使现有风口地板满足IT设备制冷。当高架活动地板高度或障碍物限制房间内某一区域的冷风量时,或高密机柜需要更多冷量比标准风口地板或格栅风口地板提供的还要的多的时候,此时,可以适当采用几块这种地板并收到较好的效果的。计算数据中心CCF值和进行基本的气流组织改善还是有很多优势。这些优势通过下面这个面积为9000平房英尺的数据中心案例中就可以看到。(1平方英尺大约为0.0929平方米,9000平房英尺约为:836m2)

该数据中心共有170个机柜,总负荷为240KW,这些热负荷由7台制冷量为70 KW的精密空调和一台制冷量为85KW的精密空调来制冷。电费是0.10美元/千瓦小时。该数据中心运维人员正在努力调整IT设备的进风温度,数据中心的CCF值为2.2。换句话说,运行的制冷量是数据中心热负荷的两倍,这说明该数据中心的制冷问题是由于气流组织不理想而导致的制冷量不足。

为了“合理地”规划冷却基础设施,对数据中心进行简单的改善,包括:

1、 密封电缆出口

2、 安装机柜盲板

3、 调整风口地板数量、位置

4、 调整部分机柜的位置

5、 密封未放置机柜的空间(将未摆放机柜位置的冷通道地板用盖板盖上 达到密封效果)

这样做可以数据中心内全部IT设备热点,同时还可以关掉两台精密空调,从而每年节省21,900美元,投资回收期不到8个月。

CCF的好处――在进入气流组织系统另一层级改善(比如遏制)之前,企业常常忽视“合理规模”冷却IT负荷或无法完成气流组织基本原理应用(密封高架活动地板孔和机柜中的开口,管理风口地板等)。解数据中心的CCF值在气流组织改善进行的所有阶段都很重要,它可以帮助区分气流组织改善规划的优先次序。跟踪CCF对数据中心进行的改善效果,可以证明在效率方面的投资与降低PUE相联系的重要性。

如果很少或还没有做气流组织管理,计算CCF值可以帮助需要做什么,以此提高利用率,显示潜在投资回报以及投资回收期。如果改善气流组织,CCF将能表现出可以继续改善的地方。

CCF是数据中心冗余制冷量的直接指标。大部分数据中心,在IT设备得不到充分冷却的同时却运行着过剩的制冷量。冷却不充分是指IT设备的进风温高于或低于由ASHRAE为主要任务设备制定的标准温度。由ASHRAE制定的IT设备推荐允许的进风温度范围如图5所示。ASHRAE明确指出,推荐的范围适用于传统设备。确定CCF值,找到进风温度不良的根本原因是缺乏制冷量还是气流组织管理不理想。

(ASHRAE:美国采暖,制冷与空调工程师学会)

冗余制冷量产生的最主要原因是旁通气流(这在其它文章已作出详细说明):精密空调提供的冷却气流在返回精密空调之前未通过IT设备的那部分气流。最小化旁通气流对于优化冷却基础设施至关重要。另一种估计旁通气流的方法是将UPS负荷乘以120 ,IT负荷的行业平均值用CFM/kW表示。(CFM是气体流量单位)这是IT负荷所需的气流量。将这个量与运行的精密空调提供的气流量进行比较,可能会发现该数据中心存在明显的过多供给的冷却气流。(制造商说明书可以提供精密空调气流量的数据。)另一个低效率指标是将精密空调的送风温度与一些最高机架进风温度相比。温度升高是IT负荷污染供应的冷却气流产生的废气造成的。

“合理规模”制冷量可提供以下优势:

  1. 通过提高回风温度提高精密空调的效率
  2. 通过消除热点和冷点提高IT设备的可靠性
  3. 通过提高制冷的有效性和效率降低运营成本
  4. 释放冗余制冷量来增加数据中心制冷量
  5. 通过提高制冷量冷却更多的IT设备来实现业务增长
  6. 推迟增加冷却基础设施资本支出,或者可以建立一个新的数据中心
  7. 降低冷却负荷改进PUE
  8. 通过减少公用设施的使用减少碳排放

无论数据中心是否有进风温度问题,CCF都适用

数据中心目的之一是为IT设备提供稳定和适当的进风温度。由此,将数据中心分为两类,

1、 具有进风温度问题的数据中心

2、 没有进风温度问题的数据中心

对于没有进风温度问题的数据中心,计算CCF可以更有效帮助数据中心更有效运行,同时可以降低运营成本,还可以为后期IT设备增长释放更多制冷量。

对于具有进风温度问题的数据中心或保持适当进风温度,第一个要解决的问题是:是不是由于缺乏冷却能力或气流组织差而引起的问题?计算CCF可以明确回答这个问题。

计算制冷量系数(CCF)

CCF通过将总运行的额定制冷量(千瓦)除以IT设备关键负载(千瓦)的110%来计算。

总制冷量是运行精密空调额定制冷量的总和。如果所有精密空调都正在运行,则这将与总安装的精密空调的额定制冷量相同。例如,如果安装10台制冷量为30冷吨精密空调,运行其中的7台,则总制冷量为739千瓦( 7 x 30 = 210冷吨, 210x 3.52 =739KW)。将冷吨换算成千瓦,乘以常数3.52。

(备注:1美国冷吨=3024千卡/小时(kcal/h)=3.517千瓦(KW))

数据中心的IT负载等于数据中心的UPS输出。确保使用的UPS输出仅用于数据中心内设备。如果UPS向其它数据中心提供输出,则必须从UPS总输出中减去这些负载。要计算UPS输出中未反映的数据中心典型负荷(照明、建筑围层、人员等)需要添加10%。

制冷量系数=总运行制冷量/ PUS输出x 1.1

精密空调通常涉及到额定制冷量(如30冷或20冷吨精密空调)。如果额定制冷量未知,请记录精密空调铭牌上的型号

  (图6 ),并在线搜索或致电制造商。

额定制冷量是指精密空调在标准条件下总的制冷量,解精密空调的额定制冷量是很重要的,它涉及返回精密空调气流的温度和相对湿度。通常标准条件是75 ℉( 24℃)和45%的相对湿度( RH)。如果回风条件不同,设备将有不同的制冷量。如果回风温度比低于标准状态,设备将输送小于额定的制冷量。如果回风温度高于标准状态,设备将超过的额定制冷量。

如果数据中心规划、配置合理,使用精密空调额定制冷量计算CCF,精密空调至少可以提供额定制冷量。事实上,在数据中心运行状态下,许多精密空调设定的回风温度都比标准值要低,这两者的差别在于运行状态下实际提供的制冷量与在理想状态下提供的潜在制冷量或者设定回风温度高,这都是制冷量过剩的一种表现。

如何理解CCF值,合理改善数据中心

CCF值为1.0到1.1的数据中心,又恨少或没有冗余制冷量。主要是在这些数据中心中在透彻了解AFM基本原理基础上,进行改善,尽可能提供冗余制冷量。根据自身情况需要,增加精密空调来产生冗余制冷量。气流组织的改善会改变IT设备进风温度,并为提高精密空调进风温度提高创造条件,这样可以提高精密空调的效率和制冷量。在CCF值为1.0-1.1的条件下,不能关闭精密空调或降低风扇转速。

CCF值为1.1至1.2的数据中心,运行精密空调的数量与数据中心的热负荷密切相关。IT设备的进风温度没有超出ASHRAE推荐的范围,而且气流组织管理相应做到位。每10台精密空调约有一台冗余(10+1)。在大多数情况下,如果有一个精密空调发生故障,足以保持数据中心的制冷。除非数据中心内有24小时全天候的监控和人员配置,否则不应关闭空调。

CCF值为1.2至1.5的数据中心,有适度机会关闭精密空调实现降低运营成本。这通常只能在气流组织得打充分改善后才能成功。降低成本并不需要全面的遏制策略,但是需要彻底密封高架活动地板的开放区域和机架间的开放空间,并且将风口地板和格栅风口地板放置在最佳位置。

CCF值为1.5到3.0的数据中心是最常见的。这些数据中心有大量机会可以降低运营成本、改善IT环境并增加能被有效冷却的IT负荷。在这一范围内的数据中心通常有明显的可以通过改善气流组织从而释放过剩制冷量。

CCF值大于3.0的数据中心有很大的改善潜力,因为运行精密空调的总额定制冷量至少是IT负荷的110%的三倍。

CCF值的最理想范围

有几个因素影响数据中心最佳情况下的CCF值。良好的数据中心平面规划对达到理想CCF值有很大的影响。如果机柜面向同一方向(传统布局)并且大量独立设备,这样的气流组织能效比是很不理想的,并且制冷量与IT负载也是有着密切的关系。此时,CCF在1.8左右。没有做气流遏制系统的数据中心将比做气流遏制系统的数据中心拥有更高的CCF值。更多的应用气流遏制系统的数据中心能实现最低CCF值。根据精密空调的规格和数量,采用集装箱或模块化应用的数据中心CCF值看可以降低至1.2。

其它重要指标

如果不需要计算数据中心CCF值,其它指标也有助于准确算出气流组织在数据中心的有效性和效率:

1、 热点与冷点的数值是制冷效果的重要衡量指标。

2、 从精密空调到IT机柜进风温度的变化表明在进入机柜的冷风与多少其它气流混合(比如与回风混合等)。

3、 从IT设备进风温度到从机柜热通道返回到精密空调的回风温度表明,在从风口地板向机柜进风开始就有多少气流与之混合,回风的时候又与多少气流与之混合。

此外,PUE值已成为确定数据中心基础设施总体效率的最普遍的指标。事实上,PUE显示出来的是冷却基础设施是数据中心电力的最大消耗因素。

因此,提高冷却基础设施的效率将对降低PUE能产生显而易见的效果。然而,PUE虽是一个很好的总体指标,但它并不能带我们找到改善数据中心问题的根源与机会。业界人士需进一步对数据中心CCF进行分析和论证,从而帮助改善自身数据中心得到改善。

本文转自d1net(转载)

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

分享: