数据中心能耗分析_第1页
数据中心能耗分析_第2页
数据中心能耗分析_第3页
数据中心能耗分析_第4页
数据中心能耗分析_第5页
免费预览已结束,剩余7页可下载查看

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

数据中心能耗实例分析前言:本文着重分析了影响数据中心能耗的因素,从数据中心的空调、 ups 、运维等方面对其能耗进行了综合分析。本文认为影响数据中心能耗的关键因素是 空调系统, 并以 2 个数据中心的空调系统为例, 结合作者在数据中心建设和运维中的经验,提出了数据中心节能的建议。一、数据中心节能的必要性近年国内大型数据中心的建设呈现快速增长的趋势,金融、通信、石化、电 力等大型国企、 政府机构纷纷建设自己的数据中心及灾备中心。随着物联网、 云计算及移动互联概念的推出,大批资金投资到商业idc 的建设中。数据中心对电力供应产生了巨大的影响, 已经成为一个高耗能的产业。 在北京数据中心较集中的几个地区, 其电力供应都出现饱和的问题,已无法再支撑新的数据中心。目前某些数据中心移至西北等煤炭基地,利用当地电力供应充足、 电价低的优势也不失为一个明智的选择。随着数据中心的不断变大, 绿色节能数据中心已经由概念走向实际。越来越多的数据中心在建设时将pue 值列为一个关键指标,追求更低的pue 值,建设绿色节能数据中心已经成为业内共识。例如,微软公司建在都柏林的数据中心 其 pue 值为 1.25 。据最新报道 google 公司现在已经有部分数据中心的pue 降低到 1.11 。而我们国内的 pue 平均值基本在 1.82.0 ,中小规模机房的 pue 值更高,大都在 2.5 以上。我们在数据中心绿色节能设计方面与国外还存在很大差距,其设计思想及理念非常值得我们借鉴。根据对国内数据中心的调查统计,对于未采用显著节能措施的数据中心,面积为 1000 平方米的机房,其每年的用电量基本都在500 多万 kwh 左右。因此精品资料对于新建的大型数据中心,节能的必要性十分重要。从各大数据中心对电力的需求来看, 数据中心已经成为重要的高耗能产业而非“无烟工业,”建设绿色、节能的数据中心急需从概念走向实际。二、影响数据中心能耗的因素数据中心的能耗问题涉及到多个方面,主要因素当然是空调制冷系统,但 ups 、机房装修、照明等因素同样影响着数据中心的能耗,甚至变压器、母线等选型也影响着能耗。例如,对ups而言,根据it 设备的实际负荷选择合理的ups 容量,避免因 ups 效率过低而产生较大的自身损耗。同时,选择更加节能的高频 ups 、优化 ups 拓扑结构都可起到节能的效果。1、ups 对数据中心能耗的影响ups 主机的自身损耗是影响数据中心能耗的一项重要因素。提高 ups 的工作效率,可以为数据中心节省一大笔电费。下图为某大型ups 主机的效率曲线。从该曲线中可以看出,当ups 负荷超过 30% 时 ups 的效率才接近 90% 。很多数据中心在投运初期it 负荷较少,在相当长的时间内负荷不足20% 。在此情况下 ups 的效率仅仅为 80% 左右, ups 的损耗非常大。因此,在ups 配置中尽量选择多机并联模式, 避免大容量 ups 单机运行模式。例如,可以用两台 300kva ups 并联运行的模式代替一台600kva ups单机运行模式。其优点在于 it 负荷较少时只将一台300kvaups 投入运行,另一台ups 不工作,待 it 负荷增加后再投入运行。这种ups 配置方案及运行模式可以提高ups效率,降低机房能耗。2、供配电系统对数据中心能耗的影响数据中心的用电负荷非常巨大,并且有很多变频设备例如冷水机组、水泵、 冷却塔、照明灯具等,这些变频设备会产生很大的谐波。此外,ups 、it设备等也会产生很大的谐波。 谐波对数据中心有非常大的危害,而且会增加能耗。 对于用电负荷为1000kw的数据中心,进行谐波治理后,每年可节能100 多万度电。3、空调系统对数据中心能耗的影响据美国采暖制冷与空调工程师学会 (ashrae )技术委员会 9.9( 简称 tc9.9 )统计报告显示,数据中心各部分的用电量分布大致如下图所示:从上图可看出, 空调制冷系统占数据中心总电量的近三分之一,是影响机房能耗的关键指标。 每个数据中心空调制冷的能耗存在很大差异, 好的空调制冷方案可以极大降低能耗,降低 pue 值。因此,本文以 2 个数据中心为例,着重分析空调系统对数据中心能耗的影响。三、 数据中心空调系统实例分析1、 小型数据中心空调系统能耗分析以南方某数据中心为例,说明小型数据中心的能耗。该数据中心2007 年建成, it 机房总面积为 530 平方米, 220 个机柜。 4 台 120kva ups , 3 用 1 备, 每个机柜的平均功率为 1.3kw 。采用风冷式精密空调制冷,配置 10 台 80kw 显冷量空调, 8 用 2 备。经多年运行,目前该机房负荷已接近满载。该机房是在厂房基础上改建而成, 几乎没有采用任何节能措施, 仅在改建过程中对楼板、 墙壁、门窗等进行加固、封闭及保温处理。该机房的年 pue 值为 2.68 。每天的用电量约为 1.3 万 kwh 。该机房原配置 8 台精密空调, 6 用 2 备。机房建成后出现局部热点,经分析后,确定由 3 个因素所致。 其一,因机房层高较低, 机房架空地板仅为350mm , 扣除地板下的强度电缆线槽,有效静压箱高度很低,不利于气流流动。其二,该机房存在空调死角, 气流无法有效流动。 其三,空调室外机与室内机的高度较大, 超过 20 米,对额定制冷量有折减。为解决上述三个问题,只能通过增加空调数量来解决。因此该机房的pue 值较高。在这类机房中, 机房风冷式精密空调的能耗是影响该数据中心能耗的关键指标,因其房间结构所限, 造成精密空调的效率较低,也影响到数据中心的整体能耗较高。2、 大型数据中心空调系统能耗分析该数据中心总面积约为3000 多平方米, 2009 年初开始正式投入运行。在本项目中空调冷冻水系统采用了“ freecooling ”技术,在过渡季节利用压缩机 + 自然风冷却运行模式。 在冬季则完全利用自然风冷却进行板式换热。在冬季及过渡季节,外界湿球温度小于4时,采用“freecooling ”运行模式,即冷水机组停止运行,经冷却塔散热后的冷却水和从精密空调来的冷冻水在板式换热器内进行热交换, 将机房内的热量带走, 此时冷却塔起到冷水机组的作用。在此过程中仅冷却塔的风扇、 水泵及精密空调等设备在耗电,冷水机组完全没有耗电。 在夏季及过渡季节当外界湿球温度高于4时,“free cooling ”运行模式已无法满足数据中心制冷需求,此时冷水机组开始制冷, 回到传统的空调压缩机制冷模式运行。系统示意图如下图所示:冷水机组开式冷却塔板式换热器精密空调作为数据中心的关键基础设施,冷冻站的设计是最重要环节。本项目设置2个相对独立的制冷机房,每个冷冻机房有2 台 3500kw (合 1000rt )的离心式冷水机组, 3 用 1 备。冷冻水供回水温度设定为11 /17 。考虑前期负荷较小,为避免离心式冷水机组在低负荷时发生“喘振”现象,系统配置2 台 400rt 的螺杆式冷水机组。板式换热器按冷冻水11 /17 ,冷却水 9/14 进行设计。为实现制冷系统的不同运行模式, 冷冻水泵选择了 2 种不同扬程的变频水泵以适应“free cooling ”运行模式和冷水机组制冷模式。本系统的关键技术是空调系统的控制逻辑。控制逻辑的优劣直接关系的空调系统的能耗及系统安全。在制定空调系统控制逻辑时, 首先基于冷水机组、 水泵、冷却塔的能耗数据及本地区的气象条件, 提出了合理的节能系统流程图, 并与假定冷水机组全年运行的能耗数据进行比较,在理论上做出节能运行分析。其次,为了保证空调系统安全、 节能运行, 控制逻辑分为夏季和冬季 2 种模式。在由冷水机组转换到自然冷却时, 为了避免冷水机组发生低温保护, 必须首先开启冷却水管道的旁通阀,将冷却水水温提高,以便顺利开启冷水机组。冬季自然冷却时, 冷却塔处于低温环境, 而冷却塔又必须供应低于冷冻水温的冷却水(比如6-8 的冷却水),控制逻辑必须防止冷却塔结冰现象的发生。根据近几年的实际运行经验,本数据中心最迟从每年的11 月下旬就可启用“free cooling ”运行模式,一直可持续到第二年的 3 月底至 4 月中旬,即每年至少可使用 44.5 个月的免费冷源,节能效果非常显著。下表是该某数据中心的2010年 7 月份至 12月份的用电量统计及相应的pue 值。时间7 月8 月9 月10 月11 月12 月天数313130313031总用电408,300482,400492,240545,580555,180650,040量(度)平均用电 /天13,17115,56116,40817,59918,50620,969(度)办公用电、空调、 ups 损4,8816,0525,9576,8444,8295,186耗及照明用电/天(度)ups 用电 /天7,4879,50910,45111,30413,67715,783(度)pue 值/天1.761.641.571.561.351.33从上表可知, 8 月份 it 设备的负荷比7 月份有所增加, 因此 8 月份的 pue 值比 7 月份略有降低。 9、10 月份平均气温低,此时冷却水温度较低,冷水机组效率得以提高,因此9、10 月份的 pue 值比 7、8 月份 pue 值明显偏低。因当年 11、12 月份的气温较低,该系统已完全具备free-cooling运行模式所需的条件,冷水机组压缩机已停止工作不再耗电。因此,此时虽然ups 的用电量在逐步加大,但空调的用电量却比7、8、9 、10 月份的用电量还要低, pue 值从 1.76 降低到 1.33 ,节能效果非常巨大。3、 数据中心水处理系统与能耗的关系大型数据中心通常采用冷水机组作为机房冷源,因此数据中心的水系统 (冷却水及冷冻水) 对于数据中心而言极为重要, 其安全可靠性直接关系到数据中心的运行。不仅如此,水质也直接关系到节能的问题,例如北京地区水质较硬,当水系统中的结垢现象很严重时,空调系统的能耗也随之增加。冷却水与空气接触进行热交换的同时也将空气中的污染物带入系统,进而会影响设备的正常运行。空调的冷却水系统易受到结垢,腐蚀,污垢,微生物等问 题的困扰。其主要原因是冷却塔在通过水的蒸发将热量带走的同时,水中的离子浓度会不断升高,进而会加剧系统设备和管道的结垢、腐蚀。另外,在满足一定 的温度、阳光、空气等条件时,水中会滋生很多微生物,微生物的存在会影响系 统设备和管道的正常运行。在空调专业上将冷却水出水温度与制冷剂的冷凝温度之差称之为冷冻机趋近温度。当冷水机组内的铜管干净时,该差值小也即趋近温度低;反之,当铜管 有水垢粘附时, 差值大也即趋近温度高。 趋近温度越高, 空调压缩机需要额外多做功压缩制冷剂,产生额外的电耗。根据实际运行中的统计,趋近温度每增加 1,冷水机组即增加 3% 的能耗。此外, 当趋近温度达到 7 时, 会对冷水机组的运行造成非常大的危险。 因此实时的检测水系统的水质并自动进行加药处理对数据中心的水系统尤为重要。水系统自动检测及自动加药设备通过在线的、实时的控制, 可以严格地控制水的电导率, 控制电导率在合理范围内, 根据电导率大小自动控制排污阀的开或关,使补水量更精确, 从而达到节约用水的目的。下面以实例说明自动水处理系统在节电、节水方面所取得的效果。某数据中心在采用自动水处理系统前遭遇冷冻机组结垢、微生物滋生等问题困扰,造成趋近温度升高,最高时达到6.5 ,产生了严重的能源浪费和运行风险。经过自动处理系统后,现趋近温度稳定在1以下。在处理前,冷水机组耗电量为202kw 。处理后,在相同的负荷下,耗电量降为170kw 。在采用“freecooling ”技术的前提下,冷水机组每年运行 7.5 个月计算,则一年节约用电为:(202-165 )kw * 24h * 225d =199800 kwh。四、数据中心运维能耗分析1、提高机房环境温度。国内机房运行温度普遍偏低。我国关于机房的国标规定,a 级机房的温度为2324 。通常情况下机房管理人员将此温度设为机房精密空调的回风温度。 那么,精密空调的出风温度通常是18 19。但随着芯片技术的不断提高,芯片耐高温性能也在不断更新,it设备可正常运行的温度也在不断地提高。 国外有越来越多的数据中心设计和管理人员将机房精密空调的出风温度设置到27 。据估算,制冷参数变化1,可能会产生5%10% 的能耗变化。此外,提高机房环境温度还可以延长节能装置(例如“freecooling ” 免费冷源)的使用时间,提高精密空调送风温度和提高冷冻水出水温度。2008 年 ashrae 给出了推荐的机房环境温度, 如下图所示。 图中红色线条区域为推荐的环境温度。在最新的白皮书数据处理环境热指南(thermal guidelines for data processing environments)中,该温度又有了提高。ashrae 所给出机房环境温度是经过国际上主流it 设备供应商确认的,也就是说该机房环境温度并不与it 设备供应商的要求相抵触。2、ups 节能运行。在市电供电质量好的情况下,将 ups 主机运行在旁路模式,使逆变器处于“休眠”状态,但当市电不满足要求时, 逆变器迅速投入工作。这种工作模式可以有效的降低 ups 自身损耗。3、严格有效的数据中心管理可以极大的降低能耗, 根据机房 it 负载的变化及时调整精密空调的运行数量

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论