数据中心制冷技术的应用及发展_第1页
数据中心制冷技术的应用及发展_第2页
数据中心制冷技术的应用及发展_第3页
已阅读5页,还剩5页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

数据中心制冷技术的应用及进展的制冷技术,例如:风冷直膨式系统、水冷系统、水侧自然冷却系统及风侧自然冷却系统等。同时,分析了国内外数据中心制冷技术的应用差异及将来数据中心制冷技术的进展趋势。关键词:数据中心;制冷;能效;机房;效劳器AbstractThispaperbrieflyreviewsthedevelopmentofdatacentercoolingtechnology,enumeratesandanalyzesthecoolingtechnologiesindatacenterdevelopmentperiod.Theenumeratedtechnologiesincludesdirectexpansionair-conditioningsystem,watersidecoolingsystem,watersidefreecoolingsystemandairsidefreecoolingsystem,etc.Atthesametime,thepaperanalyzesthedifferenceofdatacentercoolingtechnologyapplicationbetweenthedomesticandoverseasaswellasthetendencyofdatacentercoolingtechnologyinthefuture.Keywordsdatacenter;cooling;efficiency;computerroom;server前言随着云计算为核心的第四次信息技术革命的迅猛进展兴产业,成为一代信息产业的重要组成局部和将来3-5年全球角逐的焦点。数据中心不心进展政策和布局已上升到国家战略层面。〔例如通信和存储系统其中,制冷系统在数据中心是耗电大户,约占整个数据中心能耗的30~45%。降低制冷系统的能耗是提高数据中心能源利用效率的最直接和最有效措施应用,并展望了将来数据中心的进展方向。风冷直膨式系统及主要送风方式1994年4月,NCFC〔中关村训练与科研示范网络〕领先与美国NSFNET直接互联,实现了中国与Internet全功能网络连接,标志着我国最早的国际互联网络的诞生。2022~2022年间中国互联网产业全面起步和推广,此时的数据中心正处于雏形阶段,更多的计算机房业务量不大,机架位不多,规模也较小,IT设备形式多种多样,单机柜功耗一般是1~2kw。受当时技术所限,IT度精度到达±1℃,相对湿度精度到达±5%,干净度到达十万级。依据当时的经济和技术水平,计算机房多承受了风冷直膨式周密空调维持IT设备的工作环境,保证IT设备正常运行。和把握系统等,制冷剂一般为氟里昂,单机制冷量10-120KW。原理如图1所示。每套空调相对独立把握和运行,属于分散式系统,易于形成冗余,牢靠性较高,具有安装和维护简洁等优点,是这个时期数据中心大量承受的空调方案。缺点是设备能效比较低,COP(CoefficientOfPerformance3.0,室内外机受到管道距离限制。1:风冷直膨式周密空调原理图风冷直膨式周密空调室内机一般部署在机房一侧或两侧送风管道,冷空气通过风管下方开设的送风百叶送出,经IT设备升温后负压返回空调机。应用较多。2风管上送风案例种气流组织方式。这种方式利用架空地板下部空间作为送风静压箱,削减了送风系统动压,增加静压并稳定气流。空调机将冷空气送至地板下,通过送风地板通孔送出,由IT设备前端进风口吸入。该方法的优点在于机房内各点送风量可以通过送风地板通孔率调整,同时,通需求的增长和调整,地板下敷设的电缆不断增加,导致送风不畅,甚至形成火灾隐患。水冷系统

3地板下送风案例2022~2022年间互联网行业高速进展,数据业务需求猛增,原本规模小、功率密度低的数据中心必需要担当更多的IT设备。此时的单机柜功率密度增加至3~5kw,数据中心的心能耗急剧增加,节能问题开头受到重视。COP(CoefficientOfPerformance)较低,在北京地区COP约为2.5~3.0,空调设备耗电惊人,在数据中心整体耗电中占比很高。而且,随着装应用到数据中心制冷系统中,由于冷水机组的COP可以到达3.0~6.0,大型离心冷水机组甚至更高,承受冷冻水系统可以大幅降低数据中心运行能耗。端组成。系统承受集中式冷源,冷水机组制冷效率高,冷却塔放置位置机敏,可有效把握噪方面的经济优势。4:水冷系统冷冻水系统应用最多的空调末端是通冷冻水型周密空调,其单台制冷量可以到达150kw以上。送风方式与之前的风冷直膨式系统变化不大,仅仅是末端内的冷却媒质发生IT水侧自然冷却和型空调末端2022~至今,随着数据中心制冷技术的进展和人们对数据中心能耗的进一步关注和追求,自然冷却的理念渐渐被应用到数据中心中。机组,通过冷却塔与板式换热器“免费”制取冷源,削减数据中心运行能耗。水侧自然冷却渡季节则将较低温的冷却水与较高温的冷冻水进展预冷却后再进入冷水机组低冷水机组负荷及运行时间的目的。5:水冷系统自然冷却系统原理传统数据中心的冷冻水温度一般为7/12℃,以北京地区为例,全年39%的时间可以利用自然冷却,假设将冷冻水提高到10/15℃,全年自然冷却时间将延长至46%。同时由于蒸发温度的提高,冷水机组COP可以提升10%。另一方面,随着效劳器耐受温度的提升,15/21℃,全年自然冷却时间可以到达70%甚至更长。自然冷却系统日渐成熟,已经成为我国当前数据中心工程设计中最受认可的空调系统方案。我国目前PUE能效治理最正确的数据中心也正是基于水侧自然冷却系统,全年PUE已实现1.32。在冷源侧系统不断演进进展的同时,型空调末端形式也层出不穷。传统的机房周密空调机组构造形式相对固定,设备厚度一般为600mm,宽度为2500mm左右,风量约27000m3/h,其机组内部风速到达7米/秒,空气阻力很大,风机大量的压力损失在了机组内部,造成了很大的能量铺张。一般配置了450Pa风机全压的空200Pa。图6所示的AHU风机矩阵是一种型的空调末端,运行时由AHU设备的回风口吸入机房热回风,挨次经过机组内部的过滤器、表冷器等功能段。降温后的空气由设置在AHU前部的风机矩阵水平送入机房,冷空气送入机房冷区,即机柜正面,冷却IT后升温排至热区,型的空调末端转变了机房布置和传统周密空调机组的内部构造风速可以把握在3米/秒以下,削减了空气在设备内部屡次转变方向并大幅减小部件布置紧凑导致的阻力。末端能耗最多降低约30%。6:AHU行级空调系统〔Inrow〕和顶置冷却单元〔OCU〕是一种将空调末端部署位置从远离负荷中心的机房两侧移至靠近IT机柜列间或机柜顶部的空调末端侧的优化,形成了我们称之为靠近负荷中心的集中式制冷方式。行级空调系统由风机、表冷盘管,水路调整装置、温湿度传感器等组成,设备布置在IT机柜列间。行级空调通过内部风机将封闭通道的热空气输送至表冷盘管,实现冷却降温,IT设备依据自身需求将低温的冷通道空气引入,通过效劳器风扇排至封闭的热通道,实现水平方向的空气循环。行级空调系统〔Inrow〕因靠近负荷节装置、温湿度传感器等组成,设备本身不再配置风机,表冷盘管设置于机柜顶部。IT机柜顶部的顶置冷却单元表冷盘管降温后,因热压作用开头下降,并再由IT机柜风扇吸进IT设备降温,实现垂直方向的空气循环。顶置冷却单元〔OCU〕因其本身就没有配置风扇,热0。以华北地区某个应用了行级空调系统〔Inrow〕和顶置冷却单元〔OCU〕冷却技术的大型数据中心PUE1.37:行级空调系统〔Inrow〕和顶置冷却单元〔OCU〕从传统周密空调到行级空调系统,再到顶置冷却单元,不难觉察,空机械制冷或者不使用机械制冷,这将大大降低制冷系统能耗。风侧自然冷却系统与水侧自然冷却系统相比,风侧自然冷却系统〔FreeCooling或Air-sideeconomization〕削减了能量转换和传递环节,节能效果更加直接和显著。风侧自然冷却系统是指室外空气直接通过滤网或者是间接通过换热器将室外空气冷量带入到数据机房内,对IT设备进展降温的冷却技术。依据室外空气是否进入机房内部空间,可分为直接风侧自统空调系统中制冷机组生产低温冷媒对数据中心降温,可显著削减数据中心空调系统能耗。Google,Facebook等互联网巨头在美国、欧洲等气候条件良好的地区建设的应用直接风侧自然冷却技术的数据中,PUE1.07。如图9所示,我国大局部地区全年平均气温在20℃以下,从温度分布角度计算,格外适合承受风侧自然冷却方案。9:我国年平均气温分布度10反映了全球PM2.5的分布状况,从中可以看出我国,尤其是华北地区的空气污染状况格外严峻,大气环境中的水分〔水分〕、污染物〔主要有SO42-,NO3-,CL-〕和氧气会使得IT设备上的金属元器件加速腐蚀、非金属元器件加速老化,对IT设备造成永久性损坏。对国内多个地区的空气质量的持续测试也印证了这一点〔如图11所示。在如此恶劣的环境条件下,假设将风直接引入机房,将直接威逼IT设备的安全运行,国内已经有多起由于直接风的引入而导致IT设备故障的失败案例,不仅造成了硬件损坏而且还影响了业务的正常运营。10:全球PM2.511:空气质量检测结果因此,ISA-71.04-1985中明确了有害气体对IT设备的影响。12ISA-71.04-1985目前,解决有害气体对数据中心IT设备危害的方法主要是承受化学处理法,即针对不再威逼业务的稳定运行。热。13间接风侧自然冷却空调系统高,应用场景受到限制,不具备大规模推广的意义。进展展望随着电子产业的进展,IT设备对运行环境的适应性越来越强,这给数据中心制冷技术温效劳器已经能在3580%的时间无需机械制冷,制冷系统能耗将进一步降低。随着高温效劳器的进一步进展,进风温度40℃条件下年100%自然冷却。当高温效劳器进风温度支持40℃时,效劳器排风将会超过50℃时,此系统带来彻底的变革,直接风侧自然冷却系统将会大规模应用,数据中心全年PUE<1.1将成为现实,其经济效益和社会效益将不行估量

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论