绿色数据中心主要节能技术

2016-10-20 08:09沈世镇上海市能效中心
上海节能 2016年8期
关键词:冷冻机数据中心直流

沈世镇 申 沛 上海市能效中心

绿色数据中心主要节能技术

沈世镇申沛上海市能效中心

为了提高数据中心的能源效率,尽量减少数据中心整体用电量,尽量增大数据中心整体用电量中用于IT系统的比例。新建数据中心应该按绿色数据中心要求建造。主要介绍绿色数据中心的主要节能技术。如:低能耗服务器、虚拟化技术、市电直供+240V高压直流(HVDC)、自然冷却、合理的气流组织、建筑节能技术。

绿色数据中心;节能技术;用电量

随着信息化快速发展,全球数据中心建设步伐明显加快,总量已超过300万个,耗电量占全球总耗电量的比例为1.1%~1.5%,其高能耗问题已引起各国政府的高度重视。国际上普遍通过应用节能、节水、低碳等技术产品以及先进管理方法建设绿色数据中心(Green Data Center),实现能源效率最大化和环境影响最小化。

近年来,我国数据中心发展迅猛,总量已超过40万个,年耗电量超过全社会用电量的1.5%[1]。数据中心的能耗主要包括服务器、交换机、存储系统等IT设备的能耗,也包括空调、配电、照明等辅助系统的能耗。2009年我国数据中心总耗电量约364亿kWh,2011年我国数据中心总耗电量约700亿kWh,2015年我国数据中心总耗电量约1000亿kWh,相当于一个三峡电站一年的发电量。

数据中心是一整套复杂的设施,它不仅包括计算机系统和其他与之配套的设备(如通讯设备和存储系统),还包括冗余的数据通信连接、环境控制设备、监控设备以及各种安全设备。

绿色数据中心是指数据机房中的IT系统、机械、配电、照明等取得最大化能源利用率和最小化的环境影响,也即提高数据中心的能源效率,尽量减少数据中心整体用电量,尽量增大数据中心整体用电量中用于IT系统的比例,尽量减少用于非计算设备(电源转换、冷却等)用电量。

目前对计算机中心能效水平普遍采用大型数据机房PUE值(PUE=数据中心设备总电耗/IT设备电耗)来评价,PUE应≤1.5。国内外新建先进大型数据中心,最低PUE值已经做到1.07~1.2,全年PUE已经做到1.3以下。

以下对绿色数据中心目前主要采取的节能技术进行简介。

1 低能耗服务器

集成电路芯片、电子器件是构成设备的基础。而芯片器件的能耗也是决定IT设备能耗的主要因素。IT设备需选用低功耗的产品和选用有效用电率高的产品。因此降低芯片器件的能耗、减少散热量、提高主频、采用多核、提高密度、减小空间,并使“功耗不变、性能提升”。是现行芯片器件厂商努力和用户选择的目标。

数据中心的IT设备主要有:计算机设备、服务器设备、网络设备、通讯设备、存储设备等。服务器设备在数据中心中是一项重要的设备,占有较多的数量和空间,也是数据中心中能耗较多的设备。近年来,服务器的形式发生了较大的变化。由原来的主机式、落地式到现在的机架式、刀片式。刀片服务器密度较高比机架式服务器消耗电能要少。刀片式服务器,就是指服务器外形扁而平,活像个刀片,于是形象的叫做“刀片服务器”。在标准高度的机架式机箱内可插装多个卡式的服务器单元(即刀片,其实际上是符合工业标准的板卡,上有处理器、内存和硬盘等,并安装了操作系统,因此一个刀片就是一台小型服务器),这一张张的刀片组合起来,进行数据的互通和共享,在系统软件的协调下同步工作就可以变成高可用和高密度的新型服务器。这些刀片服务器共用系统背板、冗余电源、冗余风扇、网络端口、光驱、软驱、键盘、显示器和鼠标,一个机箱对外就是一台服务器,而且多个刀片机箱还可以级联,形成更大的集群系统。因为一个标准机架式机箱通常内置了8~14个刀片服务器,这些服务器是共用冗余电源,所以服务器电源的工作效率得到很大提升。而刀片服务器因为体积小,与同等速度与配置的机架式服务器相比,更加省电与节能。服务器等IT设备要考虑选用高性能的芯片、低能耗器件,并具有冗余电源和冗余散热送风设施和动态管理模式。

2 虚拟化技术

虚拟化是通过软件实现硬件“绿色节能”的一种有效手段。虚拟化技术是合并多台使用率比较低的IT设备(服务器设备和存储设备)到1台或几台高端IT设备上运行。可以将1台物理服务器虚拟划分成多个相互隔离的小服务器,并且每个虚拟的小服务器都拥有独立的IP。虚拟化可以提高系统适应性,提高IT设备的有效利用率,运行较少的服务器并动态关闭不使用的服务器,可降低设备的使用能耗。

3 市电直供+240V高压直流(HVDC)技术

我国已经从实验室测试到进了信息行业应用多年,IT设备采用240V高压直流供电。在电信运营商和一些大型互联网公司的数据中心内,已经有数以十万计的IT设备在240V高压直流环境下可靠运行几年了,并且表现出很好的可靠性及节能效果。目前240 V高压直流技术的可行性已经得到较好验证,相应的理论分析和实践经验也在不断研究和总结中,240 V直流供电技术已经成为行业热点,并在不断改变传统数据中心供电以UPS为主的格局(见图1),也以远超380 V高压直流技术的应用规模,正逐步流行中国并走向国际。

图1 数据中心传统交流供电系统

传统的UPS系统的效率往往随着负载率的提升而增加,如果UPS系统长期处于轻载状态,那么运行的实测效率并没有达到宣称的最高效率点。对于2N UPS架构,每套UPS的负载率往往在30%~40%之间,虽然选用了最高效率为94%的UPS,但实际的运行效率很可能只有约90%。

240 V高压直流系统(见图2),由于有电池直接挂接母线,那么高压直流系统是允许节能休眠的,监控会自动开启需要工作的电源模块数量,并使电源系统在任何负载情况下都可以工作在最高效率点附近,即高压直流可以在全负载范围内都达到94%以上效率,而市电直供支路基本是100%供电效率,因此市电+240 V HVDC综合供电效率为97%。

服务器具备支持休眠一个电源的功能,那么这种主从模式下,市电主供、高压直流系统休眠后备,综合供电效率更是高达99%,实现数据中心供电系统的超高效率。

数据中心传统交流供电系统(2N UPS)和市电直供+240 V高压直流(HVDC)供电系统安全性均可达到99.99999999%。

图2  市电直供+240V高压直流(HVDC)供电系统

4 自然冷却技术

4.1自然冷源

阿里云位于浙江千岛湖的数据中心因地制宜采用湖水制冷。深层湖水通过完全密闭的管道流经数据中心,帮助服务器降温,再流经2.5 km的青溪新城中轴溪,作为城市景观呈现,自然冷却后最终洁净地回到千岛湖。

得益于千岛湖地区年平均气温17℃,其常年恒定的深层湖水水温,足以让数据中心90%的时间都不依赖湖水之外的制冷能源,制冷能耗节省超过8成。

千岛湖数据中心是国内领先的新一代绿色数据中心,利用深层湖水制冷并采用阿里巴巴定制硬件,设计年平均PUE低于1.3,最低时PUE1.17,也是目前国内亚热带最节能的数据中心之一。

Google、Facebook许多数据中心都有用自然冷源冷却的成功案例。

4.2水冷+自然冷却供冷

有些数据中心远离江湖,无法利用到自然水冷源,但可以利用过度季节、冬季空气的冷源。

大型数据中心制冷空调系统一般采用水冷冷冻机组+精密空调(风机盘管),见图3。

数据中心中由于服务器、UPS、电压调节单元、服务器风扇、供电单元、照明消耗电力,最后以热的方式散发到空间,由于数据中心全年不停运行,即使冬天也要冷冻空调。

冷冻机出水温度一般控制在15℃,回水温度控制在22℃。当外界气温低于16℃、湿球温度低于12℃或冷却塔水温低于15℃,就可对精密空调器22℃冷冻水回水进行预降温,但此时冷却水不能将冷冻水降到15℃,必需和冷冻机串联,通过冷冻机控制水温到15℃,但由于冷却水对冷冻水进行了预冷,可降低冷冻机的电力消耗。当气温不断降低,可逐步减少通过冷冻机的流量,大部分通过旁路,冷冻机和旁路并联,由于冷却水温不稳定,必需通过冷冻机调节混合温度,精确控制出水温度在15℃。这时候为部分自然冷却。

但外界气温足够冷,冷却水温降到10℃以下,就可以将22℃冷冻水回水降到15℃,可停开冷冻机,这时候进入全自然冷却。

在部分自然冷却阶段,用于冷却冷冻水的冷却塔和用于冷却冷冻机冷凝器的冷却塔,应该分开设置。因为两个冷却塔要求不一致,用于冷却冷冻水的冷却要求水温越低越好。用于冷却冷冻机冷凝器的冷却水温不能低于18℃,否则冷冻机会自动停机,可通过不开风机、通过旁路回水方法来保证冷冻机冷凝器的冷却水温在20~25℃。

图3 水冷+自然冷却系统图

4.3风冷+自然冷却供冷技术

中小型数据中心一般采用风冷精密空调,见图4。

过度季节、冬季利用自然冷却,可以在回风口和室外加装热交换器。二个热交换器之间用乙二醇水溶液管道连接,通过水泵实行乙二醇水溶液的循环。当气温低于20℃时,开启室外热交换器的风机、开启乙二醇水溶液水泵,乙二醇水溶液在回风口热交换器吸收热量,到室外热交换器放出热量,起到对热回风预冷的作用,从而降低精密空调器的电力消耗。随着气温越来越降低,自然冷却效果越来越显现,由于回风热交换器已经抵消了大部分热负荷,精密空调压缩机开始卸载工作。

回风口热交换器要注意冬季凝结水的排放。

风冷精密空调器必需是变频空调,根据送风温度进行变频调节。

图4  风冷+自然冷却系统图

5 优化气流组织

数据中心设备需要冷却以保持最佳的温度水平。通常的空气流是通过空调设备(AC)到IT设备,再回到AC设备。有时,气流可能不会走这条路径。输出端的气流可能会返回到输入端,从而会降低冷却效果。

保持热空气与冷空气彼此远离,可以有效地管理气流提高冷却效果,节省成本。通过冷通道封闭(见图5)或热通道(见图6)封闭,防止热空气从机架后面泄漏到机架前面,优化冷却效果。

封闭通道是解决数据中心中高热密度机柜冷却问题的有效办法。封闭冷通道后室内风机送风量可减少30%,室内风机可省电约2/3,封闭热通道后室内风机送风量可减少12.5%,室内风机可省电约1/3;封闭冷通道后制冷系统的能耗在数据中心整体能耗中所占比例由38%减为35.4%,封闭热通道后制冷系统的能耗在数据中心整体能耗中所占比例由38%减低为36.7%;数据中心封闭冷通道比封闭热通道节能2%,比不封闭通道节能4%。一个典型的数据中心的PUE计算实例表明:封闭冷通道后数据中心的PUE值降低0.04,封闭热通道后数据中心的PUE值降低0.02。

但封闭冷通道机房室内温度较高,巡回检查、维修人员工作环境较热。

图5 冷通道封闭

图6 热通道封闭

6 建筑节能

建筑节能也即节约建筑物的能源消耗,减少能源损失,提高能源利用率。建筑节能技术主要是,采用新型保温围护结构、高效制冷空调、节能照明、利用可再生能源以达到节能的目的。根据云计算数据中心单体建筑和绿色节能的需要,很多建筑节能技术可以在云计算数据中心建设中借鉴和应用,促进云计算数据中心的绿色节能高效。

6.1建筑外形设计节能技术

建筑外形设计节能包括建筑格局朝向、外形结构设计、体形系数、表面面积系数设计等。建筑物的体形系数就是指建筑物与室外大气接触的外表面积A(m2)与其所包围的体积V(m3)的比值。外表面积中,不包括地面和不采暖楼梯间隔墙和户门的面积。在其他条件相同的情况下,建筑物耗热量指标随体形系数的增长而增长。研究表明,体形系数每增大0.01,能耗指标大约增加2.5%。从有利于节能出发,体形系数应尽可能地小。在相同体积的建筑中,以立方体的体形系数为最小。

6.2建筑围护结构节能技术

墙体采用岩棉、玻璃棉、聚苯乙烯塑料、聚胺酯泡沫塑料及聚乙烯塑料等新型高效保温绝热材料以及复合墙体,降低外墙传热系数。

采取增加窗玻璃层数、窗上加贴透明聚酯膜、加装门窗密封条、使用低辐射玻璃(low-E玻璃)、封装玻璃和绝热性能好的塑料窗等措施,改善门窗绝热性能,有效阻挡室内空气与室外空气的热传导。

采用高效保温材料保温屋面、架空型保温屋面、浮石沙保温屋面和倒置型保温屋面等节能屋面。在南方地区和夏热冬冷地区采用屋面遮阳隔热技术。

适当的外遮阳布置,会比内遮阳对减少日射得热更为有效。有的时候甚至可以减少日射热量的70%~80%。外遮阳可以依靠各种遮阳板、建筑物的遮挡、窗户侧檐、屋檐等发挥作用。

6.3提高冷冻机能效技术

采用地(水)源冷冻机,由于地源、水源温度比较低,可降低冷冻机的冷凝压力,大大提高冷冻机COP,降低冷冻机的能耗。

提高冷冻机出水温度,一般冷冻机标准出水温度为7℃,这个工况下冷冻机一级能效可达到COP=6.2,当冷冻机出水温度达到15℃,冷冻机COP可达到8以上。

采用磁悬浮冷冻机,在传统的制冷压缩机中,机械轴承是必需的部件,并且需要有润滑油以及润滑油循环系统来保证机械轴承的工作。机械轴承不仅产生磨擦损失,润滑油随制冷循环而进入到热交换器中,在传热表面形成的油膜成为热阻,影响换热器的效率,过多的润滑油存在于系统中对制冷效率带来很大的影响。

磁悬浮轴承是一种利用磁场,使转子悬浮起来,从而在旋转时不产生机械接触、机械磨擦,不再需要机械轴承和润滑系统。这种新型的压缩机无需润滑油,无油化设计不仅排除了油污染对制冷效率的影响,同时也减少了油热器、油泵、油分离器、油过滤器等配件。

这种新型的压缩机采用两级离心式压缩机。新型的压缩机还结合了数字变频控制技术,压缩机的转速可以在15 000~48 000 r/min之间调节。

无摩擦和离心压缩方式使压缩机获得了高达COP=5.6的满负荷效率,而变频控制技术则使压缩机获得了IPLV=8.58极其优异的部分负荷效率,压缩机比其它品牌同种型号的节能48%。

6.4冰蓄冷、水蓄冷技术

冰蓄冷、水蓄冷技术可有效解决能量供给与需求时间上的不匹配问题,提高系统安全性。在制冷系统中应用冰蓄冷、水蓄冷技术,是实现电网的“削峰填谷”的重要途径。

6.5利用再生能源技术

太阳能、风能、生物质能、海洋能、地热能等都属于可再生清洁能源。太阳能一体化建筑是当前太阳能利用的发展趋势。利用太阳能光伏发电技术为建筑物供电。

6.6照明节能技术

采用智能照明系统,实现按需照明;尽量利用自然光(顶部天窗,屋顶采光等);推广使用LED节能灯,比荧光灯的节电50%~60%。

6.7变频节能技术

冷冻机、冷冻水泵、冷却水泵采用变频技术,根据负荷变化,自动调节冷冻机、冷冻水泵、冷却水泵转速,降低冷冻机、冷冻水泵、冷却水泵功耗。

Main Energy Saving Technologies of Green Data Center

Shen Shizhen, Shen Pei Shanghai Energy Efficiency Center

To improve data center energy efficiency, it is key to reduce whole data center electric power consumption and improve ratio of IT equipment electrical power consumption among whole data center electric power consumption. Newly-built data center construction standard is according to green data center standard. The article introduces main energy saving technologies of green data center, such as low energy consumption servers,virtualization technology, main power direct supply plus 240v high voltage direct current, free cooling, reasonable air distribution and architecture energy saving technologies.

Green Data Center, Energy Saving Technologies, Electrical Power Consumption

10.13770/j.cnki.issn2095-705x.2016.08.009

猜你喜欢
冷冻机数据中心直流
酒泉云计算大数据中心
基于直流载波通信的LAMOST控制系统设计
浅析数据中心空调节能发展趋势
苏州静思园冷冻机房大数据智能化技术项目改造
关于建立“格萨尔文献数据中心”的初步构想
秦山三厂冷冻机常见故障及原因
汽车空调冷冻机油的选用与加注方法研究
一款高效的30V直流开关电源设计
非隔离型光伏并网逆变器直流注入抑制方法
基于云计算的交通运输数据中心实现与应用