邢雪松
摘 要:我国数据中心的建设规模不断增大,处于高速的建设发展时期,各政府部门对战略性新兴产业的大力扶持,以及对云计算、物联网、宽带和下一代网络的发展的高度重视,二十一世纪人类社会正在逐步进入信息时代,各行各业的数据中心建设规模越来越大。但随着数据中心规模的不断扩大,服务器发热密度越来越高,数据中心能耗问题日益突出。数据中心中暖通系统能耗占据着较大比例,暖通系统节能刻不容缓。西方发达国家中暖通系统仅占社会总能耗的百分之十五左右,而在我国暖通系统能耗却占社会总能耗的百分之三十,可见暖通系统节能的必要性。本文将针对数据中心工程中暖通系统的节能措施展开研究和分析。
关键词:数据中心;暖通;节能
1 引言
随着数据中心的不断变大,绿色节能数据中心已经由概念走向实际。越来越多的数据中心在建设时将PUE值列为一个关键指标,追求更低的PUE值,建设绿色节能数据中心已经成为业内共识。例如,微软公司建在都柏林的数据中心其PUE值为1.25。据最新报道Google公司现在已经有部分数据中心的PUE降低到1.11。而我们国内的PUE平均值基本在1.5~2.0,中小规模机房的PUE值更高,大都在2.5以上。我们在数据中心绿色节能设计方面与国外还存在很大差距,其设计思想及理念非常值得我们借鉴。而降低PUE的关键是降低数据中心暖通系统的耗电。
2 背景
在测试的数据中心中主要负荷来自A楼4个机房和B楼6个数据机房中的负载设备及几个机房的供冷设备。目前该数据中心装机量占总装机量的30%左右,暖通系统仅开启B楼一套冷机及冷却塔来负责A、B两栋楼的供冷,两栋楼通过母联暖通管道连接。由于负荷较低,冷机的利用率较低。机房内的末端空调分为精密空调、列间空调、背板空调等。
冷机及冷却塔情况,A、B楼各两台离心冷机,目前开启B楼一台离心机进行供冷。末端空调情况,每个机房配备1-2个空调间,共开启背板空调262台,开启精密空调60台在运行。机房机柜情况,每个数据机房面积约为515m2,机柜数量约200个。总体来说,目前数据中心处于极低负荷状态,包括暖通设备运行状态也是如此。
3 测试及整改措施
背板空调送风的掺混问题严重,装有不同机型服务器的空调掺混情况也差异较大。背板空调的掺混情况主要在上部和下部,主要是机柜装载盲板数量不足。一些服务器自身风扇排风量大于背板风扇排风量,在无盲板的位置热风返回与冷通道的冷风掺混后又被服务器吸入,造成降温效率降低。改进措施:盲板装载不足需考虑增加盲板来挡风,防止热风返回与冷风掺混。
背板空调风扇排风不足导致回风严重,由于风扇转速控制逻辑混乱,在现有排布情况下,进行控制逻辑进行修改,将常规风速调整与服务器的风速和温度进行匹配。
在未来机房排布和设计中,背板控制逻辑应当根据放置的不同机器,设置不同的排风风速档位供选择,或者将同一类型的机器放置在一列机柜中,以整体的安排风扇转速,达到节能效果。
3.1 现存问题
对单个机柜来说送风量不足,服务器的风扇排风量大于送风量,导致上部出现回风掺混。应该加大单个机柜送风量。
对于整个机房来说,整体的送风量为44.9m3/s远高于需求的送风量22.9m3/s,即有22m3/s的冷风没有经过服务器直接通过空间直接回到热通道与热风进行掺混,进而增加了空调能耗。
精密空调末端除湿和恒湿机加湿同时进行。而导致这一现象出现的根本原因在于目前供水温度14℃太低,低于回风露点温度。对各个精密空调的回风测试后发现将冷冻水供水温度提高至16.2℃以上即可解决这一问题。
各精密空调工作状态差异大。其中一些空调的输配系数远低于额定工况,运行效果不好。
风机能耗浪费。一些空调箱的水阀和风机严重不匹配:水阀开度较小,相应换热量较小,但风机转速依然处于较高水平,造成不必要的能耗。
3.2 改进措施
将无服务器通道封闭地板和百叶防尘板,阻挡冷热风掺混。
改善服务器排布。根据测试情况,整个机房负荷率为设计的8.95%,而机柜占有率为23%,空置冷通道为50%,可见机柜摆放没有整体规划和设计,基本为意愿随意摆放。如果将服务器集中摆放,可以大面积减少冷风浪费,同時可削减送风量,提升冷冻水温度。
将冷冻水供水温度提高至16.2℃以上即可解决同时除湿和加湿的情况。
数据机房热负荷均匀分配给六个冷通道,总风量、回风温度标准不变;关闭4号、5号精密空调,同时依据前面末端计算结果,降低总风量、提高回风温度标准。
4 数据中心工程中暖通系统节能的措施
通过前文的分析,不难看出数据中心工程中暖通系统节能的重要性和必要性。下面通过几点来分析数据中心工程暖通系统节能的措施。
4.1 合理的气流组织
通过前文对数据中心环境要求的分析,可以知道数据中心主机房对环境的洁净度及温湿度都有较高要求,主机房内必须要进行新风换气。在夏季时新风处理比较简单,只需进行简单的除湿即可。而在冬季,室外温度较低,且空气含湿量低于室内空气含湿量,空气处理中既要加湿又要加热,而当前的加热加湿方式显然会造成能源利用的不合理。因此,新风处理可考虑采用换热机组,利用机房内的回风加热新风,不仅降低了新风加热能耗,同时减少了末端空调风机能耗。另一方面,为了使暖通系统性能得到更好的发挥,避免冷热风混合,气流组织设计中单机柜热密度若在5kW以下,可设冷热通道。若在5kW以上,可考虑设置封闭式冷热通道。目前国内大多采用的是封闭冷通道,但工程中如果对送风温度有一定要求,可采用封闭热通道。封闭通道能够降低机柜的漏风率,最大限度的优化气流组织,有效降低能耗。此外,应设置隔离门,减少室内外空气的对流。
4.2 加强对变频技术的应用
目前国内数据中心应用的主流暖通系统控制技术分为两大类:第一类是定频技术,第二类是变频技术。由于定频控制技术下,冷冻泵需要持续运转,以维持设置温湿度,所以运行中能耗问题突出。而变频控制技术下,利用了智能控制和感应技术,系统可根据实际温湿度来自动调节运行模式,进行低能耗运行,以降低整体运行能耗。且这种控制技术控制精度大,能源利用率高,能够有效降低暖通系统运行成本,提高系统运行灵活性,解决能耗问题。因此,数据中心工程中暖通系统应积极推广和应用变频控制技术。例如,深圳科士达在二零一一建设的数据中心,就应用了变频控制技术,数据中心整体能力下降了百分之二十二,运行成本降低百分之十三,节能效果大大提升,温控、湿控效果明显改善,控制准确性明显提高,科士达数据中心被评为最佳节能数据中心。
5 结束语
数据中心的建设离不开对暖通系统的应用,但暖通系统是数据中心的主要能源设施,能耗问题十分突出。高能耗不降会造成资源浪费,增加暖通系统运行成本,更会带来严重的环境污染问题,数据中心工程中暖通系统节能至关重要。暖通系统设计中必须做好科学设计,考虑节能问题,积极融入新技术、新设备,以降低暖通系统能耗。暖通系统是数据中心耗电大户,同样也是可以优化数据中心节能的关键。主要需要优化的有:控制机房的气流组织,达到精准送风,让冷风的到充分的利用;控制暖通系统的供回水和风的温度,使温差达到最理想的值。
参考文献:
[1] 程小丹,李崇辉,曹洁.数据中心设施运维指南[J].北京:电子工业出版社,2016.
[2] 张泉,李震.数據中心节能技术与应用[J].北京:机械工业出版社,2018.