在许多人看来,IT行业是一个严谨、缜密甚至有些死板的行业,但这并不代表IT圈就没有“脑洞大开”的创意,比如:把数据中心建在海底。
“脑洞大开”背后的功耗成本压力
2013年,微软启动了名为“纳提克”的海底数据中心研究计划。2015年,在加利福尼亚海岸约30英尺深的海底,通过将服务器部署在一个重达38000磅,长10英尺,宽7英尺的集装箱中,微软启动了长达105天的可行性验证,最终证实“非常成功”。
现实中,不光是海底,在南极和北极都已出现IDC的身影,例如美国国家科学基金会的南极数据中心和Facebook位于北极圈以南100公里的瑞典吕勒奥镇数据中心。从海底到极地,数据中心这么拼,到底为哪般?
其实这些看似“脑洞大开”的背后,是对数据中心高能耗导致运营成本激增的无奈。
数据中心能耗到底有多高?
目前的数据中心主要是以高密度,大型化为发展趋势。2016年,超过100个机架以上的数据中心的占比将超过60%.以3000个机架的数据中心为例,以每个机架平均功率如果按照3kW计算,其总负荷就将达到9000kW,全年的耗电量将达到78840000kWh,电费支出超过7800万元。加之配套设备,电费将接近1.5亿。
那么数据中心的电都被谁“吃”了?数据中心能耗主要来源于IT 设备、照明系统、空调系统、供配电系统等。其中IT设备的能耗约占总功耗的约45%,空调制冷系统占40%,供电系统10%,照明系统5%左右。可以看到IT设备和制冷系统是用电的大户,这也是为什么顶级互联网企业的数据中心会尝试进入极地,因为那里的温度足够低,可以通过外界的冷空气或者冷水进行散热,省去空调制冷的能耗,电力消耗将减少40%,对于拥有海量服务器的数据中心而言,这是何等大的成本节省。
“留守”数据中心的自我革命
虽然将数据中心向极地迁移是节省能耗的有效措施,但是对于绝大多数的企业数据中心而言,这是不可能的。首先,迁移数据中心需要巨大的财力支撑,新建数据中心厂房、建设配套设施、雇佣运维人员等成本可能已经远超数据中心本身的能耗成本。第二,新风系统或者海水冷却的设计和可靠性验证也不是一朝一夕可以完成。因此目前大部分数据中心仍然“留守”在城市的郊区或者稍靠北方的地域。
那么这些“留守”下来的数据中心就无法降低功耗成本了么?从数据中心能耗的占比来看,45%的用电量是由IT设备产生的,虽然作为核心单元,无法将IT设备的功耗将为0,但是尽最大可能将IT设备的能耗控制在可接受的范围内,也是降低数据中心能耗成本的重要手段,这是数据中心内部发起的“自我革命”。
先来看下中国x86服务器的类型占比,我们姑且将单路、双路的机架式和塔式服务器算作是计算存储均衡型或偏存储服务器,将刀片式和高密度服务器算作偏计算型服务器,那么根据IDC 2016Q3的数据显示,2016Q1-Q3中国市场计算存储均衡型或偏存储型服务器的出货量超过130万台,而偏计算型服务器仅为20万台。计算密集型服务器依靠高主频、高密度来实现价值,我们从中降低的能耗较少,而占据市场86%的偏存储型服务器则大有可为。
如何让90%的数据降低存储能耗
据HGST的研究表明,在数据中心里只有10%-15%的数据是被经常访问的,而其他全部是“冷数据”。对这些海量的“冷数据”,部分企业仍然采用2U机架式服务器进行存储,但效果往往是“大马拉小车”。一方面,2U最多支持12块3.5寸硬盘,均摊到每TB的成本较高;另一方面,“冷数据”的低访问率意味着其对CPU、内存、网络、PCIe扩展等性能要求不高。如果将其和温数据,甚至是热数据挤在一个“房间”,那么带来的后果只能是机房投入、功耗及运维成本的居高不下,难以做到资源的最优化配置。
因此,对互联网企业而言,尤其是随着大数据时代的来临,如何实现数据的分级存储,为占据90%数据总量的“冷数据”找到最合适的“家”,是困扰企业已久的难题。而那些具有市场敏感性的服务器厂商,也适时推出了化解“冷存储”困境的产品.
前金山云CTO杨钢曾经指出:“作为存储服务提供商,我们的职责是把用户的数据存好,并且在用户想要使用的时候快速拿出来。但同时,我们也要尽可能地降低存储成本。”可以说,用作“冷存储”的服务器需要对性能、功耗、成本、安全等每一项指标都做到精打细算,最大实现各项指标的平衡,因此其开发难度并不低,这也是为什么业界大多数4U36盘位机型定位在温热数据存储的原因。
本文作者:佚名
来源:51CTO