黄浩
在倡导绿色节能的今天,电源使用效率(PUE)常常被视为数据中心能源使用的重要考量指标。对此,Gartner研究副总裁RakeshKumar表示,在能源相关成本大约占到总数据中心开支的12%,并且是数据中心内增长最快的一项。他认为,随着企业机构逐渐走出经济危机时期并开始升级技术基础架构,数据中心电力、冷却、能源供应和成本问题或将在未来几年继续恶化。对于大多数大型数据中心来说,持续监测能源利用效率(PUE)将成为一种常态。到2015年,80%的新建大型数据中心提供对整个数据中心的持续PUE数据报告。
PUE是Power Usage Effectiveness的简写,是评价数据中心能源效率的指标,是一个数据中心IT设备能耗占总体能耗的比值,IT设备包括服务器、存储、网络设备等;总体能耗还要包括照明、冷却系统、空气循环系统以及其他设备的能耗。如果数据中心PUE为2.0,这表示计算设备消耗1千瓦时电能,就要额外开销1千瓦时。理想情况下,数据中心PUE值要尽可能接近1。根据调研机构Uptime Institute统计,2011年全球数据中心平均PUE值为1.83,这表示计算设备的电力开销平均为83%,这是针对全球525个数据中心运营商的调查,其中71%位于北美。中国信息协会副会长李元香曾表示,我国数据中心的PUE均值超过1.5,这是一个很高的数字,也从侧面反映出我们有很大的改进空间。因此,国外一些PUE值接近1.1的数据中心,其经验则值得借鉴。
PUE值<1.1
Facebook庞大的用户基数给其数据中心带来了巨大的压力,当Facebook的用户基数突破了10亿的时候,随着这些用户不断地上传存储数以亿计的图片、视频及每日状态更新消息,这意味着Facebook需要更多的服务器,更大面积的数据中心。Fcebook因此建立了它的第二个数据中心,并号称这个位于北卡罗来纳州的数据中心将是全世界最节能的数据存储中心之一。
来自Facebook的官方资料介绍称,这个位于北卡罗来州纳福里斯特城的新数据中心的预期电源使用效率将在1.06到1.08之间。而为了这一数值的实现:首先,该数据中心采用了Open Computer Project2.0版本的网络服务器,还使用了英特sandyBridge处理器的平台。其次,新工程将采用户外空气冷却的设计方法,这次也是首次的现场测试,与以往典型的数据中心不同,户外空气冷却的设计将在全新的温度和湿度环境下运行服务器。
相较之下,雅虎在纽约洛克波特的数据中心也不遑多让,PUE值达到了1.08。雅虎计算中心位于纽约州北部不远的尼亚加拉大瀑布,是一个为期5年彻底重新考虑公司需求的数据中心设计的结果。雅虎的团队完善了其设计理念,建立起了更快,更便宜的数据中心,将大大超过以往数据中心。并且,每幢建筑看上去就像一个巨大的鸡窝。“该建筑本身就是一个空气处理程序。”因此,这座数据中心并没有提供水冷系统以及冷藏机组,但它也是密度非常高的数据中心,一切散热都是通过空气来完成。雅虎数据中心运营总监Scott Noteboom说,“整个建筑是为了更好的‘呼吸,能够形成很大的天窗和阻尼器来控制气流。每年Lockport数据中心节省下来的电能,可以为9000户居民进行供电,并且一年能够节省足够20万人的饮用水资源”。由此可见,数据中心周围的自然环境对其PUE值有着重要的贡献。
但问题在于,并不是所有的数据中心都有着优良的自然环境,尤其是对于那些老旧的数据中心来说,只能通过改良的方式进行节能优化。在这方面,谷歌和曙光都有着优秀的实施经验。
改造传统数据中心
高密度和高PUE值似乎是一对孪生兄弟。一方面,高密度部署方案是多数数据中心能够在寸土寸金的都市,在现有数据中心基础上,不扩大面积或现有建筑空间的基础上拓展业务的有效手段。记者了解到,以高密度快速提升计算能力,以全封闭降低能源使用率——集装箱数据中心,这是HP、IBM、SUN、Google、微软等顶级IT硬件商、服务商共同的解决方案。但是另一方面,高密度部署也意味着高能耗的出现。据IDC的一份报告显示,自2004年以来,服务器的平均价格降低了18%。另一方面,如果一个数据中心的冷却系统跟不上服务器密度的发展,那么建设高密度数据中心就变成了一句空谈。
在2012年第一季度,谷歌报告2011年其数据中心平均PUE值为1.14,这表示计算设备的能耗开销只有14%。在2010年,谷歌数据中心平均PUE为1.16,而在2008年谷歌刚刚开始跟踪能耗的时候平均PUE为1.22。
谷歌方面认为,降低数据中心PUE值需要多方面设计,其中包括服务器设备、气流分析、电源转换效率等等。另外,谷歌通过提高网络中心的运营效率,可以降低数据中心PuE值。过为了演示优化数据中心的过程,谷歌特意挑选了五个PUE值在2.2到2.4之间的网络数据中心进行改造。在前期投入20000美金之后,谷歌能够将这五个网络数据中心的PUE值降低到1.5到1.6之间。该项目包括气流分析,优化电源布局,以地砖直接冷却方式,减少了制冷的输出,消除了制冷的供过于求,将数据中心温度提高至27摄氏度等项目。目前谷歌数据中心正在努力寻找和部署高转换效率的UPS电源单元。一些UPS系统已经达到了95%以上的转换效率。
在国内,曙光公司的改造方式是,通过旗下的Cloud BASE方案,采用模块化设计、空调就近制冷、机柜或机柜排内部封闭气流组织形式、柜顶走线设计等多种先进技术。将PUE指数牢牢控制在2.0以内。在华东地区的曙光无锡云计算中心,采用的就是Cloud BASE解决方案,仅用了13套C1000设备就能保障数据高速运转,并使主机房面积控制在210平米,最终将PUE控制在1.5。记者了解到,采用同样解决方案的成都云计算中心PUE值为1.6,上海超算中心PUE值最高为1.7,中国电信北京数据中心PUE值最低为13。
而针对高密度数据中心未来的发展趋势,大多数的专家认为,随着技术的发展,技术设施服务提供商可能更倾向于在更多的地方建立数据中心部署服务器,而不是在一个数据中心内提高服务器的密度。