ImageVerifierCode 换一换
格式:DOCX , 页数:10 ,大小:490.23KB ,
资源ID:20300732      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/20300732.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(数据中心制冷技术的应用及发展朱永忠.docx)为本站会员(b****1)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

数据中心制冷技术的应用及发展朱永忠.docx

1、数据中心制冷技术的应用及发展朱永忠1 前言随着以云计算为核心的第四次信息技术革命的迅猛发展,信息资源已成为与能源和材料并列的人类三大要素之一。作为信息资源集散的数据中心正在发展成为一个具有战略意义的新兴产业,成为新一代信息产业的重要组成部分和未来 35 年全球角逐的焦点。数据中心不仅是抢占云计算时代话语权的保证,同时也是保障信息安全可控和可管的关键所在,数据中心发展政策和布局已上升到国家战略层面。数据中心是一整套复杂的设施。它不仅仅包括计算机系统和其他与之配套的设备(例如通信和存储系统,还包含配电系统、制冷系统、消防系统、监控系统等多种基础设施系统。其中,制冷系统在数据中心是耗电大户,约占整个

2、数据中心能耗的30%45%。降低制冷系统的能耗是提高数据中心能源利用效率的最直接和最有效措施。制冷系统也随着数据中心的需求变化和能效要求而不断发展。下文简要回顾和分析了数据中心发展各个时期的制冷技术应用,并展望了未来数据中心的发展方向。2 风冷直膨式系统及主要送风方式1994年4月,中关村教育与科研示范网络(NCFC率先与美国NSFNET直接互联,实现了中国与Internet全功能网络连接,标志着我国最早的国际互联网络的诞生。19982004年间中国互联网产业全面起步和推广,此时的数据中心正处于雏形阶段,更多地被称为计算机机房或计算机中心,多数部署在如电信和银行这样需要信息交互的企业。当时的计

3、算机机房业务量不大,机架位不多,规模也较小,IT设备形式多样,单机柜功耗一般是12kW。受数据中心制冷技术的应用及发展 文/朱永忠 平安科技(深圳有限公司【摘 要】 本文简要回顾了数据中心制冷技术的发展历程,列举并分析了数据中心发展各个时期主流的制冷技术,例如:风冷直膨式系统、水冷系统、水侧自然冷却系统及风侧自然冷却系统等。同时,分析了国内外数据中心制冷技术的应用差别及未来数据中心制冷技术的发展趋势。【关键词】 数据中心 制冷 能效 机房 服务器Abstract: This paper briefly reviews the development of data center cooling

4、 technology, enumerates and analyzes the cooling technologies in data center development period. The enumerated technologies include direct expansion air-conditioning system, water side cooling system, water side free cooling system and air side free cooling system, etc. At the same time, the paper

5、analyzes the difference of data center cooling technology application in and abroad as well as the tendency of data center cooling technology in the future.Key words: data center cooling efficiency computer room serverDOI:10.13924/ki.cecs.2015.08.028当时技术所限,IT 设备对运行环境的温度、湿度和洁净度要求都非常高,温度精度达到1,相对湿度精度达到

6、5%,洁净度达到十万级。依据当时的经济和技术水平,计算机机房多采用了风冷直膨式精密空调维持IT 设备的工作环境,保证IT 设备正常运行。风冷直膨式精密空调主要包括压缩机、蒸发器、膨胀阀和冷凝器以及送风风机、加湿器和控制系统等,制冷剂一般为氟里昂,单机制冷量10120kW。每套空调相对独立控制和运行,属于分散式系统,易于形成冗余,可靠性较高,具有安装和维护简单等优点,是这个时期数据中心大量采用的空调方案。缺点是设备能效比较低,COP(Coefficient Of Performance值小于3.0,室内外机受到管道距离限制。风冷直膨式精密空调室内机一般部署在机房一侧或两侧,机房内的气流组织方式一

7、般采用两种:送风管道上送风方案和架空地板下送风方案。风管上送风方式是指在机房上空敷设送风管道,冷空气通过风管下方开设的送风百叶送出,经IT 设备升温后负压返回空调机(见图1。该方法的优点在于安装快速,建造成本低。缺点是受到各种线缆排布和建筑层高限制,送风管道截面无法做大,导致风速过高,送风量无法灵活调节。 这种送风方式在低热密度的机房应用较多。图1 风管上送风案例地板下送风是另一种,即使是现在,也是大量数据中心项目中仍在使用和新建采用的一种气流组织方式。这种方式利用架空地板下部空间作为送风静压箱,减少了送风系统动压,增加静压并稳定气流。空调机将冷空气送至地板下,通过送风地板通孔送出,由IT 设

8、备前端进风口吸入(见图2。该方法的优点在于机房内各点送风量可以通过送风地板通孔率调整,同时,通过合理布置数据中心机房线缆和管道,可以少量敷设在地板下,保证美观。缺点是随着使用需求的增长和调整,地板下敷设的电缆不断增加,导致送风不 畅,甚至形成火灾隐患。图2 地板下送风案例3 水冷系统20052009年间互联网行业高速发展,数据业务需求猛增,原本规模小、功率密度低的数据中心必须要承担更多的IT 设备。此时的单机柜功率密度增加至35kw,数据中心的规模也逐渐变大,开始出现几百到上千个机柜的中型数据中心。随着规模越来越大,数据中心能耗急剧增加,节能问题开始受到重视。传统的风冷直膨式系统能效比COP(

9、Coefficient Of Performance较低,在北京地区COP 约为2.53.0,空调设备耗电惊人,在数据中心整体耗电中占比很高。而且,随着装机需求的扩大,原来建设好的数据中心建筑中预留的风冷冷凝器安装位置严重不足,噪音扰民问题凸显,都制约了数据中心的扩容。此时,在办公建筑中大量采用的冷冻水系统开始逐渐应用到数据中心制冷系统中,由于冷水机组的COP 可以达到3.06.0,大型离心冷水机组甚至更高,采用冷冻水系统可以大幅降低数据中心运行能耗。冷冻水系统主要由冷水机组、冷却塔、冷冻水泵、冷却水泵以及通冷冻水型专用空调末端组成。系统采用集中式冷源,冷水机组制冷效率高,冷却塔放置位置灵活,

10、可有效控制噪音并利于建筑立面美观,达到一定规模后,相对于直接蒸发式系统更有建造成本和维护成本方面的经济优势(见图3。图3 水冷系统冷冻水系统应用最多的空调末端是通冷冻水型精密空调,其单台制冷量可以达到150kW以上。送风方式与之前的风冷直膨式系统变化不大,仅仅是末端内的冷却媒质发生变化,空调设备仍然距离IT热源较远,主要依靠空调风扇输送空气维持气流组织。4 水侧自然冷却和新型空调末端2010年至今,随着数据中心制冷技术的发展和人们对数据中心能耗的进一步关注和追求,自然冷却的理念逐渐被应用到数据中心中。在我国北方地区,冬季室外温度较低,利用水侧自然冷却系统,冬季无需开启机械制冷机组,通过冷却塔与

11、板式换热器“免费”制取冷源,减少数据中心运行能耗。水侧自然冷却系统是在原有冷冻水系统之上,增加了一组板式换热器及相关切换阀组,高温天气时仍采用冷水机组机械制冷,在低温季节将冷却塔制备的低温冷却水与高温冷冻水进行热交换,在过渡季节则将较低温的冷却水与较高温的冷冻水进行预冷却后再进入冷水机组,也可以达到降低冷水机组负荷及运行时间的目的(见图4。图4水冷系统自然冷却系统原理传统数据中心的冷冻水温度一般为712,以北京地区为例,全年39%的时间可以利用自然冷却,如果将冷冻水提高到1015,全年自然冷却时间将延长至46%。同时由于蒸发温度的提高,冷水机组COP可以提升10%。另一方面,随着服务器耐受温度

12、的提升,冷冻水温度可以进一步提高,全年自然冷却的时间也将进一步延长。目前国内技术领先的数据中心已经将冷冻水温度提高至1521,全年自然冷却时间可以达到70%甚至更长。水侧自然冷却系统虽然相对复杂,但应用在大型数据中心项目中的节能效果显著。水侧自然冷却系统日渐成熟,已经成为我国当前数据中心项目设计中最受认可的空调系统方案。我国目前PUE能效管理最佳的数据中心也正是基于水侧自然冷却系统,全年PUE已实现 1.32。在冷源侧系统不断演进发展的同时,新型空调末端形式也层出不穷。传统的机房精密空调机组结构形式相对固定,设备厚度一般为600mm,宽度为2500mm左右,风量约27000m3/h,其机组内部

13、风速达到7m/s,空气阻力很大,风机大量的压力损失在了机组内部,造成了很大的能量浪费。一般配置了450Pa风机全压的空调机,机外余压只有大约200Pa。图5所示的AHU风机矩阵是一种新型的空调末端,运行时由AHU设备的回风口吸入机房热回风,顺序经过机组内部的过滤器、表冷器等功能段。降温后的空气由设置在AHU 前部的风机矩阵水平送入机房,冷空气送入机房冷区,即机柜正面,冷却IT后升温排至热区,即机柜背面封闭的热通道内,向上至回风吊顶,又回到空调回风口,如此周而复始地循环。这种新型的空调末端改变了机房布置和传统精密空调机组的内部结构,大大增加了通风面积,截面风速可以控制在3m/s以下,减少了空气在

14、设备内部多次改变方向并大幅减小部件布置紧凑导致的阻力。末端能耗最多降低约 30%。图5AHU风扇矩阵设备行级空调系统(Inrow和顶置冷却单元(OCU是一种将空调末端部署位置从远离负荷中心的机房两侧移至靠近IT机柜列间或机柜顶部的空调末端侧的优化,形成了我们称之为靠近负荷中心的集中式制冷方式。行级空调系统由风机、表冷盘管、水路调节装置、温湿度传感器等组成,设备布置在IT机柜列间。行级空调通过内部风机将封闭通道的热空气输送至表冷盘管,实现冷却降温,IT设备根据自身需求将低温的冷通道空气引入,通过服务器风扇排至封闭的热通道,实现水平方向的空气循环。行级空调系统因靠近负荷中心,因输送冷空气至负荷中心

15、的距离减小,设备维持制冷循环所需的能耗会比传统方式降低。顶置冷却单元与行级空调系统制冷循环很相似,但顶置冷却单元仅由表冷盘管、水路调节装置、温湿度传感器等组成,设备本身不再配置风机,表冷盘管设置于机柜顶部。IT机柜风扇将排出的热空气聚集到封闭的热通道内,通过热压的作用,热空气自然上升,经过机柜顶部的顶置冷却单元表冷盘管降温后,因热压作用开始下降,并再由IT机柜风扇吸进IT设备降温,实现垂直方向的空气循环。顶置冷却单元因其本身就没有配置风扇,热压作用维持了空气的自然流动循环,使得空调末端设备的能耗消耗降低至0。以华北地区某个应用了行级空调系统和顶置冷却单元冷却技术的大型数据中心为例,年均PUE可

16、实现1.3以下。从传统精密空调到行级空调系统,再到顶置冷却单元,不难发现,空调末端正越来越向热源靠近,目的就是减少冷却媒质输送的能耗,以输送低温冷冻水替代输送冷空气,提高冷却效率。目前服务器级的浸泡冷却方案已经开始小规模测试,这种方案利用冷却介质的相变就可以实现服务器的冷却,由于减少了介质转换温差,冷源侧可以减少机械制冷或者不使用机械制冷,这将大大降低制冷系统能耗。5 风侧自然冷却系统与水侧自然冷却系统相比,风侧自然冷却系统(Free Cooling或Air-side Economization减少了能量转换和传递环节,节能效果更加直接和显著。风侧自然冷却系统是指室外空气直接通过滤网或者是间接

17、通过换热器将室外空气冷量带入到数据机房内,对IT设备进行降温的冷却技术。根据室外空气是否进入机房内部空间,可分为直接风侧自然冷却系统和间接风侧自然冷却系统。该技术实现冷源与负荷中心直接接触,该系统不再通过传统空调系统中制冷机组生产低温冷媒对数据中心降温,可显著减少数据中心空调系统能耗。Google,Facebook等互联网巨头在美国、欧洲等气候条件良好的地区建设的应用直接风侧自然冷却技术的数据中,PUE可实现接近1.07。我国大部分地区全年平均气温在20以下,从温度分布角度计算,非常适合采用风侧自然冷却方案。但是,风侧自然冷却方案不仅仅与环境温度和湿度有关,室外从空气质量直接决定了风侧自然冷却

18、方案的应用可行性。从全球PM2.5的分布情况可以看出,我国尤其是华北地区的空气污染情况非常严重,大气环境中的水分(水分、污染物(主要有SO42-,NO3-,CL-和氧气会使得IT设备上的金属元器件加速腐蚀、非金属元器件加速老化,对IT设备造成永久性损坏。对国内多个地区的空气质量的持续测试也印证了这一点(如图6所示。在如此恶劣的环境条件下,如果将新风直接引入机房,将直接威胁IT设备的安全运行,国内已经有多起由于直接新风的引入而导致IT设备故障的失败案例,不仅造成了硬件损坏而且还影响 了业务的正常运营。图6空气质量检测结果因此,ISA-71.04-1985中明确了有害气体对IT设备的影响(见表1。

19、表1 ISA-71.04-1985中气体腐蚀等级及建议目前,解决有害气体对数据中心IT设备危害的方法主要是采用化学处理法,即针对不同种类和浓度的有害气体,配制对应原料的滤料进行化学反应,使进入到数据中心的空气不再威胁业务的稳定运行。解决有害气体腐蚀威胁的另一种思路,是应用间接风侧自然冷却空调系统(图7。其原理是通过热管换热器、交叉流换热器或转轮换热器等实现室外新风与室内高温回风的隔绝和间接换热。图7间接风侧自然冷却空调系统这种方案避免了室外新风侵入机房的风险,同时,与水侧自然冷却系统相比,又可以更大程度地利用室外自然冷源,实现更高的能效。但是由于此类设备体积庞大、与建筑耦合度高,应用场景受到限

20、制,不具备大规模推广的意义。6 发展展望随着电子产业的发展,IT设备对运行环境的适应性越来越强,这给数据中心制冷技术带来了新的机遇。高温服务器的应用将推动数据中心冷却系统更加节能。目前经过定制的高温服务器已经能在35进风条件下持续稳定运行,这意味着北京地区80%的时间无需机械制冷,制冷系统能耗将进一步降低。随着高温服务器的进一步发展,进风温度40条件下稳定运行的服务器也许不久将成为现实,届时,数据中心制冷系统将彻底取消冷机,实现全年100%自然冷却。当高温服务器进风温度支持40时,服务器排风将会超过50时,此时,数据中心热回收将更加容易且更有效益,数据中心可以实现能量的多级重复利用。与此同时,高温耐腐蚀服务器的研发也已取得了突破性进展,一旦全面商用,将对数据中心制冷系统带来彻底的变革,直接风侧自然冷却系统将会大规模应用,数据中心全年PUE2000C/月只能在该环境中使用经过特殊设计和封装的设备

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1