浅谈数据机房的气流组织形式

2016-05-14 23:31刘润宇赵昌新
建筑建材装饰 2016年5期
关键词:能耗

刘润宇 赵昌新

摘要:本文阐述了数据机房内的气流组织对数据机房制冷效率的重要性,并以某银行数据机房的气流组织形式设计为例,通过CFD模拟对机房空调现有常见的气流组织形式进行对比与分析。

关键词:机房空调;气流组织;能耗

中图分类号:TM63 文献标识码:A 文章编号:1674—3024(2016)05—164—03

1概述

电子信息系统由计算机、通信设备、处理设备、控制设备及其相关的配套设施构成,按照一定的应用目的和规则,对信息进行采集、加工、存储、传输、检索等处理的人机系统。主要为其提供运行环境的场所叫做电子信息系统机房,包括主机房、辅助区、支持区和行政管理区等。主机房内置大量网络交换机、服务器及存储器等用于电子信息处理、存储、交换及传输的IT设备,可以比喻为数据中心的大脑。

机房内的气候环境尤为重要,会直接或间接地对IT设备产生不良影响。如温度偏高会导致电子元器件的性能劣化、使用寿命降低,改变材料的膨胀系数,加速绝缘材料老化变形等。而温度偏低会造成电容器、电感器和电阻器的参数改变,直接影响到计算机的稳定工作。可能使润滑脂和润滑油凝固冻结。还会引起金属和塑料绝缘部分因收缩系数不同而接触不良,材料变脆,个别密封处理的电子部件开裂等。湿度偏高会使金属材料氧化腐蚀、造成磁带运转时打滑影响磁带机工作的稳定性等,湿度过高还会产生微薄的凝结水,容易引起漏电以致击穿损坏电子元器件。而湿度偏低会使机房内容易产生静电,静电容易吸附灰尘,如被粘在磁盘、磁带的读、写头上,轻则出现数据误差,严重的会划伤盘片,损坏磁头。故机房环境的稳定是决定IT设备能否全年每天24小时不间断安全稳定运行的重要因素。

2数据中心的能耗

目前,随着我国信息化事业的大力发展,数据中心机房的数量也随之剧增。据研究显示,IT/电信目前相关的碳排放已经成为最大的温室气体排放源之一,而该领域的排放势头还在随着全球对计算、数据存储和通信技术需求的增长快速上升,解决设备散热及机房散热量日渐趋高的现象开始受到了各界强烈关注。

图1给出了数据中心机房用电分布图,服务器占15%、网络设备占15%、存储设备占8%、空调主机占20%、空调末端占20%、UPS电源系统占15%、Ac转换以及机房照明占7%;即大约有38%的电力(服务器15%、网络设备15%、存储设备8%)真正用于网络设备消耗,而其余的电力则用于改善设备运行环境。可见,空调占到了40%的用电量,是机房中的主要用电设备。目前造成空调系统能耗过高的原因主要为以下几点:

(1)企业需求增大,功率密度升高;

(2)设备集中布置,热源越加集中;

(3)机架布置随意,热点分布不均;

(4)机架布置紧凑,气流空间受限。

所以,合理设计气流组织可减少空调冷量的损失,从而提高制冷效率,是降低空调系统能耗的途径之一。

3气流组织的常见种类及分析

近年来大中型数据中心机房的数据机柜功率继续增长,且布置越来越密,从而使数据中心的热管理成为一个非常具有挑战性的任务。数据机房的气流组织方式主要有上送下回(侧回)、下送上回等。

由于机房空调送出的低温空气由地板送风口送出后从机柜一侧进入,迅速冷却机柜后从另一侧排出,利用热空气密度小、轻,上升后被机房空调从机房上部抽回,从而达到最佳冷却效果,故而数据中心架空地板下板送风、上回风的气流组织形式成为数据中心送风方式的主流,如图2。在此基础上,通过冷热通道的封闭可以进一步提高制冷效率,降低能耗。

现以某银行数据中心机房(见图3)为例,本工程机房由网络机房、主机房及二期机房组成,因上述机房区域温湿度要求严格,全年需要恒温恒湿,为保证室内的温度及相对湿度全年每天24小时都满足使用要求,采用自带冷源的机房专用空调,根据《电子信息系统机房设计规范》GB50174-2008附录A中对于机房专用空调设备数量的要求为N+X(X取1~N)台。

网络机房为一个精密空调分区,单台机柜散热量为2kW,共34台,配置精密空调两台(显冷量≥72kW/台,一用一备);主机房为一个精密空调分区,其中高密区单台机柜散热量为12kW,共28台,测试区及普通机柜区单台机柜散热量为5kW,共63台,配置精密空调十二台(显冷量≥84kw/台,八用四备);二期机房为一个精密空调分区,单台机柜散热量为5kW,共68台,配置精密空调七台(显冷量≥72kW/台,五用两备)。

以二期机房为研究对象,机房面积185平米,长19.7米,宽11.7米,高5.4米,利用FluentAirpak软件对其进行模拟。为了研究二期机房的气流组织情况,将房间简化成19.7×11.7×5.4m的长方体结构,由于二期机房内设置了七台精密空调(五用两备),故仅设置五台精密空调作为实物模型,还依据实际情况设置了68台机柜模型,保持以上设备的尺寸、风量、散热量等实际参数不变,仅改变房间的气流组织方式,分别采用以下送风、上回风的气流组织方式(如图4),下送风、上回风且冷通道封闭的气流组织方式(如图5),下送风、上回风且热通道封闭的气流组织方式(如图6)进行模拟,根据3种CFD(Computational Fluid Dynamics)模拟结果进行对比分析。

传统的地板下送风、上回风方式,容易造成气流短路,导致送风量不足,降低空调的制冷效率。从CFD模拟结果中可以看出,低温空气从地板送风口送出后,由于冷通道完全不密封,一部分冷空气进入机柜,另一部分穿过冷通道,在机柜上方与经过机柜的冷空气混合,造成浪费,导致机房整体的环境温度偏高,由图4可以看出,机柜出风侧温度已经达到29℃以上。通过采用冷热通道封闭的方式,将冷热空气相互隔离开来,防止气流短路及冷热风相混合,可以大大提高空调机的制冷效率,在能够满足机房设备正常散热的情况下,可以降低空调风机的风量,达到节能的效果。从封闭冷通道(图5)及封闭热通道(图6)的CFD模拟结果的中可以看出,封闭冷通道后,机柜出风侧温度降到26℃左右,而封闭热通道后,机柜出风侧温度则降到将近28℃,故采用冷通道封闭的制冷效果优于封闭热通道的制冷效果。

根据CFD模拟得到的结果作为依据,通过对比本工程最终采用地板下送风、冷通道封闭、室内上回风的气流组织形式。

2007年,绿色网络组织(The Rreen Grid)制定了数据中心的能源效率指标PUE(Power Usage Effectiveness)值,该值是数据中心年总耗电量与IT设备用年耗电量的比值,它代表了数据中心的电能利用率,比值越小,表明其利用率越高。该值是目前国际上较为通用的对数据中心的评价标准。其公式为:

PLF——0.108~0.114,供配电损耗与IT设备总能耗的比值。

通过公式可以计算得到本文中某银行的数据中心机房PUE值为:

PUE=0.345+(0.108~0.114)+1=1.453~1.459。

4结论

通过CFD模拟结果对三种气流组织方式进行分析,在实现相同制冷效果的前提下,封闭冷、热通道的方式都可以有效的优化机房内气流组织,通过减少机房空调室内风机送风量来实现数据中心的节能,从模拟结果上看下送风、上回风且封闭冷通道的制冷效果最好。

猜你喜欢
能耗
水下飞起滑翔机
机械加工制造过程能耗优化方法研究
一种通信机房智能能耗管理网关技术
气象参数对成都地区办公建筑能耗的影响及预测
云环境下能耗感知的公平性提升资源调度策略
云南万元GDP能耗降低率居全国第二
O2O能耗平衡论
O2O能量平衡论
上半年单位GDP能耗同比降4.2%