苏龙梅
摘要: 数据中心由于其内部发热量大,因此对室内环境要求较高,合理地设计气流组织才能确保设备长久稳定的运行,通过选择合适的围护结构、照明功率及空调系统,尽量使数据中心的总PUE值达到最优;通过CFD模拟对不同方案气流组织条件下,比较分析机房的温度场和速度场,得出较合理的气流组织形式;通过eQUEST能耗模拟,将设计模型与基准模型相比较,通过调整建筑的各种参数,不断优化数据机房的PUE值,达到绿色节能的目的。
关键词:数据中心;CFD模拟;能耗模拟;设计优化
数据中心拥有大量计算机设备、服务器设备、网络设备及存储设备等关键设备,并且设备都是发热量大的设备,根据英国政府环境调查报告显示,到2020年,办公设备能耗占全社会总能耗30%,其中65%来自IT设备。数据中心50%-60%的功耗用于冷却数据机房环境和IT设备,因此降低数据中心能耗是我们如今面临的一个新的挑战 [1]。
由于数据机房内部环境温度不均一,同一时间测定的不同区域温差有时可达5℃以上,且机房内部风速场也不均匀,有时会出现局部区域风速过小,甚至出现漩涡现象,也就造成了机房空调能耗高、效率低的现状。因此如何合理设计室内气流组织来充分有效地利用空调设备冷却服务器,从而提高其使用寿命也是值得关注的一个问题 [2]。
本文通过CFD软件模拟分析设计方案及两个对比方案的速度场及温度场的分布情况,为数据机房的绿色节能提供建议。此外,采用能耗模拟软件eQUEST对建筑进行全年8760小时动态模拟,得出设计模型相对于基准建筑的节能率,其中基准建筑模型与参照ASHRAE 90.1-2007 中相关要求来设定;本文模拟分析还将计算数据中心的PUE值,通过调整建筑的各种参数,不断优化PUE值,达到绿色节能的目的。
1 项目简介
沣西(未来大数据产业园数据中心总建筑面积21034.36㎡,地上4层,设计内容主要包括有数据机房、变配电/UPS/蓄电池用房、空调机房等。
本工程作为高耗能建筑物,应从建筑工艺、空调、电力等几个方面进行了重点策划设计,确保本工程成为数据机房中的绿色节能数据中心。
2 设计分析
数据中心因安装的均为发热量大的服务器设备,热负荷构成主要为设备的显热负荷,相比而言,围护结构的负荷占总负荷的比例不足20%。数据中心因服务器设备发热量较大,传统上送风气流组织方式很难解决设备的散热问题,因此采取下送风的方式以解决设备的散热问题,地面为防静电架空地板 [3]。
数据中心及动力中心均为工业建筑,满足相关《绿色工业建筑评价标准》、《绿色工业建筑评价导则》、《绿色工业建筑评价技术细则(试行)》要求。
本工程设计按照《民用建筑热工设计规范》等有关规范要求,采取一定节能措施设计建筑单体,达到建筑节能设计标准。
3 CFD模拟与优化
3.1 模型建立
本模型主要参数包括:
* 气流组织形式:下送侧回。
* 地板送风口尺寸:空调送风温度为18℃,风口数量为264个,每个风口的风速是1.96m/s,送风量是890m?/h,风口面积是0.18㎡,遮挡系数是0.7。
* 墙壁回风口:风口下沿据地板3m,风口尺寸为7.5m(1m,风口前后压差5Pa左右。
* 机房外部环境温度:25℃
* 机柜布置:机柜阵列面对面镜像布置;机柜数264(以2kW计,等效3kW*180) ;
* 机柜模块尺寸:1100 x 600 x 2000 mm(L x W x H);
* 機柜结构:两侧为孔板,单元发热功率为2kW;机柜背面出风口有排风机(形成加速面),风速约为40m3/h(背面折算的面速约900 m2/h),机柜前后面(通风面)孔隙率为80%。
3.2 数值模拟
利用CFD数值模拟软件进行模拟,送风口设置为速度边界条件,送风温度为18℃,出风口采用自由出流边界条件,机柜内设备发热量平均分配到设备表面,设置设备表面的平均热流密度。
因为涉及到典型的流速和特征尺寸,流动为湍流,所以采用双方程模型对数据机房进行模拟。
3.2 方案对比
设计方案: 冷热通道设计
数据中心机房采用下送风恒温恒湿风柜直接向架空地板送风,采用EC节能风机并下沉安装,空调机房回风百叶侧回风的送回风方式,回风速度控制在1.8m/s,以达到节能的目的。
对比方案1:侧送侧回通道设计
对高密度机柜可以采用一侧下送风另一侧上回风的方式,这种方式可以有效缓解冷热通道温度出现冷热分区现象。
对比方案2:封闭冷通道设计
对高密度机柜可以采用冷气通道全封闭的方式,这种方式将空调冷风直接输送每个机柜,可以有效防止冷热空气混合,提高制冷效率,达到彻底解决机房过热和降低空调能耗的问题。
3.3 结果及分析
从图3可以看出,机组内部最高温度为26 ℃,风速在0.2m/s-0.8m/s之间;同一时间不同区域温差最高为8℃。
从图4可以看出,机组内部最高温度为22 ℃,风速在0.4m/s-1.8m/s之间;同一时间不同区域温差最高为4℃。
从图5可以看出,机组内部最高温度为21 ℃,风速在0.5m/s-2.1m/s之间;同一时间不同区域温差最高为3℃。
对比分析图3、图4及图5,封闭冷通道设计最优,具有较好的温度均匀性分布和速度均匀性分布。
4 能耗模拟与优化
4.1 建筑模型
根据eQUEST能耗模拟建模需求,对该数据中心进行建模,模型效果图如图所示:
4.2 参数设置
天气参数:西安咸阳市为寒冷地区,表1为西安地区气候参数。
暖通空调系统:
设计模型空调冷热源:动力中心的制冷机房为本数据中心提供12/18℃空调冷水作为空调冷源,办公区域及走廊设计水环热泵,夏季进出水温为32/37℃,冬季进出水温为18/12℃.。
设计模型空调末端:办公及走廊区域采用整体式水环热泵机组,由动力中心直接将经过闭式冷却塔的冷却水送至末端,新风有位于走廊的整体式水环热泵新风自己提供。
基准模型的冷源为冷水机组,热源为电加热,空调末端为VAV系统。
基准模型和设计模型的空调系统的参数对比如表5所示。
4.3 结果与分析
由设计模型输出各部分年耗电量如下图所示:
由模拟结果可以得出,建筑的节能率为14%。
4.4 PUE值计算
PUE (Power Usage Effectiveness, 电力使用效率) 值已经成为国际上比较通行的数据中心电力使用效率的衡量指标。PUE值越接近于1,表示一个数据中心的绿色化程度越高 [4]。
数据中心一般含有数据机房和办公区域,办公区域的能耗应该排除在数据中心效率计算之外。通常有些办公区域和数据机房消耗电力的设备是共用的,如冷水机组,冷却水泵等,单独测量出这些共用设备给数据机房的耗电量是不现实的。本项目PUE值的计算中通过计算出数据机房和其他区域的冷负荷百分比,然后通过比例将共用设备的耗电量的一部分分配给数据机房 [5]。
通过设计模型模拟结果机房冷负荷占整个数据中心冷负荷的百分比为:86.2%
数据机房制冷设备耗电量:0.862*(1.17+3.41+6.51) *106= 9.56*106Kwh
数据机房照明设备耗电量:211977Kwh
数据机房IT设备耗电量:59.65*106Kwh
5 设计优化总结
通过CFD模拟对比分析可以看出,无论是机房还是机柜内部温度分布的均匀性还是室内气流组织的合理性,封闭冷通道设计优于冷热通道设计和侧送侧回设计,封闭冷热通道设计能够保证机房环境保持在合适的范围内,并且冷气流完全用于冷却热源,而且能够充分利用冷源的能量达到最佳冷却效果,能够保证设备长久稳定的运行。
PUE (Power Usage Effectiveness,电力使用效率) 值已经成为国际上比较通行的数据中心电力使用效率的衡量指标。通过不断地调整建筑参数,本项目设计模型节能率为14%,PUE值为1.2,PUE值越接近于1,表示一个数据中心的绿色化程度越高,表明该数据中心的绿色化程度已很高了,达到了绿色节能的目的。
参考文献:
[1]黎振华.绿色建筑中暖通空调设计方法探析[J].绿色环保建材,2019(06):72.
[2]王剑平.某数据机房热环境改善及节能措施研究[J].科技创新与应用,2019(14):124-125.
[3]曾夙.对绿色建筑节能设计的研究[J].湖北农机化,2019(09):66.
[4]张梁钟.暖通空调设计中绿色建筑技术的应用[J].居舍,2019(13):70.
[5]丁雪芹.建筑节能措施在建筑设计中的分析[J].绿色环保建材,2019(06):51+54.
(作者单位:上海中建建筑工程咨詢有限公司)