绿色数据中心空调系统设计说明.doc_第1页
绿色数据中心空调系统设计说明.doc_第2页
绿色数据中心空调系统设计说明.doc_第3页
绿色数据中心空调系统设计说明.doc_第4页
绿色数据中心空调系统设计说明.doc_第5页
已阅读5页,还剩6页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第一节.第一节. 空调负荷的确定机房主要热量的来源: 设备负荷(计算机及机柜冷负荷); 机房照明冷负荷; 建筑维护结构冷负荷; 人员的散热负荷等; 其它1.1. 精密空调制冷容量确定由于计算机机房内主要热量来自于IT设备的显热散热,确定精密空调制冷容量时应以显冷量为指标。本项目精密空调总显冷负荷为774KW。本项目设计中精密空调选用冷冻水型,冷冻水源由大楼中央空调系统供给,每个机房区域预留冷冻水管接口。同时考虑到制冷设备的冗余备份,采用N+1的备份方式。机房精密空调数量及容量表:机房冷负荷计算表楼层房间名称面积服务器显热冷负荷负荷密度围护结构,人员,灯光等冷负荷风机冷负荷新风冷负荷总值冷冷负荷冷冻水需求流量热通道数量单台精密空调最小显冷制冷量一期精密空调数量(主用/备用)单台精密空调用电量(风机/电加热/加湿)送风气流m2kWkW/m2kWkWkWkWm3/h(条)kW(台)kWB1机房一3665001.4 29.3 4214585.3 100.7 783.6 8 6/8/8下送上回B1机房二123840.7 9.8 914116.8 20.1 1116.8 2 9/8/8下送上回Total:48958439.1 702.1120.8 10注:1. 加热与加湿不同时工作;2.室内总显冷冷负荷考虑10%精密空调电机温升负荷;3.UPS间设备冷负荷根据UPS负载率计算得出;4.电池间及UPS间采用冷冻水型空调箱AHU,运营商接入间采用风机盘管; 5.制冷量回风温度:24 相对湿度50%;6.精密空调送风余压大于等于100Pa;7.精密空调自带电动二通阀;8.节能模式:提高冷冻水给水温度至11度,精密空调表冷器校核至干工况运行。本次设计中采用下送风/上回风的气流组织,高架地板以下空间作为送风静压箱,主设备划分冷热通道,地板下送风,自由空间回风。精密空调安装在热通道顶端,送风口安装送风导流板送风至地板下,在冷通道安装送风风口,送风至主设备正面进风口,冷却主设备后,由主设备背面或者上部自由回风至精密空调。冷热通道布置示意图机房内服务器机柜按照冷热通道布置、精密空调安装于热通道顶端的方法和传统的将精密空调布置在冷通道的方法具有明显的优点: 机柜面对面、背对背布置,更加易于维护; 冷风集中送至发热设备,热风集中回至精密空调回风口,送/回风气流循环 更加合理,气流组织严密; 高达80%以上冷量用来冷却设备,能源利用效率大大提高,节能效果显著; 机房内服务器设备、冷却设备布局合理,空间利用率提高。末端地板送风口建议采用高开孔率孔板地板或者可调节的地板百叶风口,末端风口数量配置按照主设备负载情况布置。1.2. 方案优点 可提供足够的冷量来满足机房负荷的要求,并满足N+1设备冗余; 制冷设备初投资冷冻水精密空调远少于风冷型; 机组可以进行加湿及除湿,以便达到精密的湿度控制; 机组具有加热功能,配合制冷系统可对机房的温度进行精密控制; 机组具有高效过滤系统,可使机房达到设计规范要求的洁净标准; 机房所配精密空调带有漏水报警器,可对漏水情况进行实时监测。第二节. UPS间、配电间等辅助用房区域空调系统2.1辅助区域空调制冷容量确定本项目设计中辅助区域空调设备选用集中式空调箱和风机盘管,冷冻水源由大楼中央空调系统供给,每个机房区域预留冷冻水管接口。空调制冷容量表如下:机房冷负荷计算表楼层房间名称面积服务器显热冷负荷负荷密度围护结构,人员,灯光等冷负荷风机冷负荷新风冷负荷总值冷冷负荷冷冻水需求流量单台空调最小显冷制冷量一期精密空调数量(主用/备用)m2kWkW/m2kWkWkWkWm3/hkW(台)B1UPS间108640.6 8.6 61492.6 15.9 50.0 3 B1电池间一44200.5 3.5 31440.5 7.0 50.0 2 B1电池间二60200.3 4.8 31441.8 7.2 50.0 2 B1实验室一42-8.4 -3.511.9 2.1 4.0 1 B1实验室二27-5.4 -2.37.7 1.3 8.0 1 B1工作间一37-7.4 -3.110.5 1.8 12.0 1 B1工作间二50-10.0 -4.214.2 2.4 14.0 1 B1备用房一44-8.8 -3.712.5 2.1 12.0 1 B1备用房二27-5.4 -2.37.7 1.3 8.0 1 B1操作间57-11.4 -4.816.2 2.8 8.0 2 B1更衣室9-1.8 -0.82.6 0.4 3.0 1 B1前台50-10.0 -4.214.2 2.4 14.0 1 Total:55510485.6 272.37246.8 17注:1. 加热与加湿不同时工作;2.室内总显冷冷负荷考虑10%精密空调电机温升负荷;3.UPS间设备冷负荷根据UPS负载率计算得出;4.电池间及UPS间采用冷冻水型空调箱AHU,运营商接入间采用风机盘管; 5.制冷量回风温度:24 相对湿度50%;6.精密空调送风余压大于等于100Pa;7.精密空调自带电动二通阀;8.节能模式:提高冷冻水给水温度至11度,精密空调表冷器校核至干工况运行。2.2方案优点本次辅助区域空调系统具有以下优点: 直接引用大楼冷冻水源,节约设备的初投资; 与VRV空调系统相比,降低了空调冷量的衰减; 空调冷凝水集中排放,无需穿越设备间,降低了冷凝水对设备危害。第三节. 高密度机柜冷却解决方案3.1高密度设备安装趋势用电设备的功率密度(即单位体积内或单位面积内负载消耗的电能功率)在随着技术的发展而增大。五六年前,一台典型的IT机柜内可以放58台服务器,功率密度大约为每个机柜1.01.5KW。如今,随着刀片式服务器的面市,在极端情况下每个机柜内负载量甚至能够达到20KW以上。对于未来功率密度的增大速率和程度,尽管每个用户都有自己的一套理论,但有一点是大家共识的,那就是不断增大且无法准确预见。这种情况对于规模相对较大的数据中心来说会带来两方面的问题:一方面,在IT设备因业务增长而追加设备的过程中,不同区域或不同机柜内的功率密度会变得不均衡,这样会在数据中心内形成一些功率密度非常高的区域,即形成过热点;另一方面,功率密度的不均衡为设备的配电提出了挑战。3.2一般散热解决方案数据中心机柜达不到满配有两个原因:一个前面说的电力供应问题;另外一个就是散热问题,当一个42U的机柜全部装满之后,不能很好散热,服务器等系统的稳定性就得不到保证,为了实现散热就只有加大空调的制冷能力。研究发现,空调制冷设备的电力消耗是整个数据中心的2/3,这些无谓的消耗也加剧了电力供应的紧张。以现在的发展速度,如果数据中心不进行系统改造,散热问题最终将会导致数据中心崩溃的灾难性后果。你可以减少需要移动设备的大小与数量,但是你不能减少需要增加的计算与存储信息设备,你需要结果的可能是在一个更小的空间里,计算与存储系统需要更多的电力消耗。近几年,在一个相对狭小的空间里装备更多的存储与计算能力是完全可以做到的,通过减少空间的占有,增加现有设备的寿命,减少需要维护与管理的设备的数量,让IT完成更多的工作。显然,一旦在数据中心中推广这一思想,数据中心占有的空间将会更小,带来的问题是硬件变得更小,性能更高,效率更高,电力供应系统密度也更大,生产的热量更大、更集中,问题也更严重,如何散热变得越来越关键。目前,大多数的数据中心都采用架空地板加精密空调的方式来为设备提供冷却。下图展示了这种数据中心内的气流状况。比较理想的情况是,机柜采用前后通风网孔门,以“面对面,背靠背”的方式排列,将机房空间划分为冷区和热区,精密空调提供的冷风延地板下的风道送至机柜前区域,通过通风地板到达预先定义的冷区,进入机柜为设备提供冷却;从设备排出的热空气集中在预定义的热区,自然上升沿天花板循环回精密空调。3.3高密度散热的挑战从原理上说,热信道和冷信道是最好的,但是有时在实际应用时却达不到目的。特别时放在机架极端的系统特别容易出现问题。首先需要保证的是,数据中心能够从地板下获得足够的冷空气,并使其到达需要冷却的设备位置。但即使可以做到这一点,如何让冷空气达到机柜顶部仍然是一个问题。而且,阻止机器散出的热空气同冷空气混合更是困难重重。原因包括两个方面:首先,顶端热量增加,而比较低的机柜的温度降低,从而使大量的空调系统停止制冷,进一步加剧顶端温度的上升;第二,在被驱散气流的附近,流动的气流可能引发热空气在机架的顶端形成热气球,并反过来会进入机架内部温度比较低的服务器和存储设备附近。在一些情况下,它还会引起机架过热,造成系统宕机,或者通过关闭系统来进行维护。 以往的数据中心整个机房也不过20KW 的热散耗,而现在一个机柜的热量就轻松突破20KW,因此我们对于数据中心散热问题的考虑必须从单纯考虑机房气候控制转变为考虑机柜级气候控制。根据对数据中心立面的热力学分析,我们得出下图所示效果,当机柜热散耗达到10KW 时,机柜内的设备已经不能得到所需的冷却。根据ASHRAE( 美国采暖制冷与空调工程师学会)提供的数据,精密空调+架空地板的模式能够提供的最大冷却能力为1.1-1.5KW/平方米,即3-5KW/机柜。这就意味着我们必须寻求新的方式来解决超过这个限制的热量问题。3.4高密度散热的解决方案-ONdemand floor dynamic cooling system)机房专用变风量辅助制冷单元,可支持单机柜025kW的散热需求。变风量辅助制冷单元由送风风机、导风叶片、控温探头、微电脑控制器和框架组成。机组为600mm*600mm,为一块标准地板尺寸安装在地板送风系统的架空框架上,控温探头安装在受控区域,感受控温设备的出风温度,调节送风机转速改变风量,保持受控设备的出风温度维持在设定温度。具有结构紧凑,操作简单,性能稳定,自动化程度高等特点。地板送风机俯视外形尺寸为600*600mm,同架空地板的模数相同。其安装适应于600*600mm的防静电活动地板的安装,无需特殊处理,运行平稳、安全、可靠,抗压适合机房使用;“地板送风单元”的结构由最上层的模块承重隔栅、中间的导风叶片、下层的送风风机和控制电路四部分组成。承重隔栅:可承受人体站立的重量而不变形,承重能力500Kg/块;导风叶片:导风叶片可以将模块的出风指向需要的方向;送风风机: 设计送风量为05,000m3/h自动调整;风机配电为单相交流220V5,50Hz,功率225W/台,采用高效节能型EC风机;控制电路:控制电路由4个感温探头、控制微电脑和直流整流电路组成。Modbus通讯协议RS485J通信接口,地板送风单元对机柜微环境的温度控制由其自带温度传感器,机房能耗监控系统通过网关可实现对地板送风单元温度、风机转速速、运行状态和故障状态的远程监测,地板送风单元的数量列表等信息。技术特点:1.Stainless steel grid with damper open rate85% (our patent)不锈钢送风格栅通 风率大于85%,格栅内带风向调节功能9个独立方向 (独家专利技术). 2.EC motor with sine wave control(globe sole)高效率直流无刷电机配合全球独家直流正弦波直流变频风机控制技术,更节能,更安静,更稳定,更长使用寿命.3.Slim design can suit for lowest 300mm plume 超薄型设计(厚度仅为200mm)可适用于最低300mm高度的架空地板机房。4.Dynamic frame 可伸缩支架设计 0100mm现场可调,以应对不平整的现场情况。 5.Screen control panel 屏幕显示控制器6.Temperature sensor(wireless option)无线温度传感器选项。 7.Dual power and communication suit for UPTIME Tier site. 双路供电,通信容错功能,完全可满足UPTIME Tier 标准。 8.Automatic Air flow modulation according the reload of the serverWith Local Microproce

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论