《人工智能 绿色算力基础设施要求》_第1页
《人工智能 绿色算力基础设施要求》_第2页
《人工智能 绿色算力基础设施要求》_第3页
《人工智能 绿色算力基础设施要求》_第4页
《人工智能 绿色算力基础设施要求》_第5页
已阅读5页,还剩3页未读 继续免费阅读

付费下载

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1人工智能绿色算力基础设施技术要求本文件提出了绿色算力基础设施的分级要求、选址要求、场地环境要求、建筑要求、机柜要求、制冷系统要求、电气系统要求、综合监控要求、给排水系统要求、资源池要求、算力平台要求、运行维护要求、算力设施冷却节能要求、能源综合利用要求、资源综合利用要求、储能要求、算力度量与评估、算力度量与评估、碳效度量与评估、算力与碳排放联动要求。本文件适用于绿色算力基础设施的规划、设计、建设、维护与运营。2规范性引用文件下列文件中的内容通过文中的规范性引用而构成本文件必不可少的条款。其中,注日期的引用文件,仅该日期对应的版本适用于本文件;不注日期的引用文件,其最新版本(包括所有的修改单)适用于本文件。GB/T2887计算机场地通用规范GB/T28827.4-2019信息技术服务运行维护第4部分:数据中心服务要求GB50174数据中心设计规范YD/T5003通信建筑工程设计规范3术语和定义下列术语和定义适用于本文件:3.1数据中心datacenter由计算机场地(机房其他基础设施、信息系统软硬件、信息资源(数据)和人员以及相应的规章制度组成的实体。[来源:GB/T32910.1—2017,2.1]3.2人工智能计算中心artificialintelligencecomputingcenter能为多用户提供人工智能计算服务的结构或结构组。动、计算加速库、管理组件等支撑人工智能计算能[来源:GB/T46346—2025,3.1]3.3绿色算力greencomputing以整机为管理对象,评价其单位碳排放下的负载与业务输出,即服务器单位碳排放下能够输出的算力。注:绿色算力的核心是衡量计算系统从部件到整机到上层应用全堆栈的计算能效,考验计23.4绿色算力基础设施greencomputinginfrastructure集计算、存储、运载能力于一体的新型生产力载体,通过数据中心、人工智能计算中心等物理设施向社会提供绿色算力服务。注:绿色算力基础设施具有多元泛在、安全敏捷、安全可靠、绿色低碳等特征,对于助推创新进步、满足人民美好生活需要和实现社会高效能4缩略语下列缩略语适用于本文件。ICT:信息通信技术(InformationandCommunicationTechnology)PUE:电源使用效率(PowerUsageEffectiveness)UPS:不间断电源(UninterruptiblePowerSupply)WUE:水资源使用效率(WaterUsageEffectiveness)5分级要求绿色算力基础设施应根据使用性质、数据丢失或网络中断在经济或社会上造成的损失或影响程度确定级别,级别划分应符合GB/T2887中的A、B、C三级。同一算力中心承担不同应用计算任务的,应按照不同计算任务对应的重要性等级确定可用性等级,并在不同区域分别按照不同等级要求建设和提供服务。高等级的算力中心(或者算力中心的高等级区域)不应部署为低等级的应用提供的算力资源。6选址要求6.1绿色算力基础设施选址应符合GB50174和YD/T5003的规定。6.2绿色算力基础设施的建设应临近需求中心部署,优先选择工业用地。不确定需求中心的或者远离需求中心部署的,应在已批复的国家数据中心集群内建设。6.3绿色算力基础设施的选址应保证有稳定的供电、供水、供气、通信等基础条件。6.4绿色算力基础设施的建设应充分考虑当地电网资源,优先选择距离清洁能源距离合适的场址。6.5绿色算力基础设施的建设应选在自然环境清洁,环境温度有利于节约能源的地区。6.6绿色算力基础设施的建设应避开闹市区、风沙区、水土污染地区。6.7绿色算力基础设施的建设应避开噪音控制要求较高的用地。7场地环境要求7.1绿色算力基础设施的环境温度应符合GB/T2887的相关规定,使用高温算力设备的,场地温度应控制在算力设备算效最高的温度区间。7.2算力设备对运行环境有特殊要求的,场地应遵照更严格的环境参数要求。8建筑要求8.1场地平面应具有灵活性、通用性和兼容性,满足ICT设备安装要求。主机房区、支持区等的设备配置与布局,除应充分考虑目前系统的容量要求外,还应考虑系统扩展、容量增加和新技术应用的要求,做好空间上的预留。38.2建设应遵循因地制宜的原则,结合数据中心所在区域的气候、环境、资源、经济及文化特点等,对数据中心全生命期内节能、节地、节水、节材、保护环境等性能进行综合考虑,合理确定建筑规模,选用适当的建筑技术、设备和材料,对规划、设计、施工、运行阶段进行全过程控制。8.3应符合建设行政主管部门对装配率的要求,并宜优先选择装配式技术。8.4建筑地基基础设计应结合建筑所在场地实际情况、上部结构特点及使用要求,结合考虑施工条件,场地环境和工程造价等因素,宜采用环境影响小、施工可实现、节约材料的基础形式。8.5建筑结构宜合理采用高强度、高耐久性建筑结构材料。9机柜要求9.1算力中心内的各类设备应根据工艺设计进行布置,满足系统运行、人员操作和安全、设备和物料运输、设备散热、安装和维护的要求。9.2建筑物形态的算力中心应按主机房区、支持区进行分区布置。主机房区为ICT设备布置区域,支持区为机电配套设备区域。9.3主机房区内,ICT设备应按设备功能分架分列集中设置,方便维护和跳线。9.4机架布置和间距应满足GB50174的相关要求。9.5对于采用预制化产品形态的算力中心,设计时应根据产品的规格、尺寸、搬运需求等,规划好运输、卸载区域及流线。安装室内集装箱和室外集装箱的数据中心,集装箱之间的距离,应根据采购的集装箱规格、型号、开门方式、场地情况等设计合理距离,满足搬运设备装卸、运送需求。10制冷系统要求10.1算力中心设计PUE、WUE值应满足当地节能、节水政策要求。10.2智算中心宜采用风液融合的高密技术解决方案,做好预留条件,对于较高功率密度的机架,宜采用冷板式或全浸没式的服务器液冷节能技术。10.3当智算中心与通用数据中心合建时,应核算机房承重、制冷容量余量,通过技术比较节能经济性较优时,可合用空调制冷系统。10.4超算中心应采用液冷解决方案,同时废弃物排放应达到环保要求。10.5边缘算力中心当独立建设时,其空调系统宜采用集成度高、布置灵活、水资源消耗少的系统形式,同时根据室外气候条件,应因地制宜开展自然冷源技术应用。10.6边缘算力中心与数据中心合建、邻建时,应与数据中心空调系统合用或参考其空调系统形式。10.7对于存量数据中心改造场景,应优先选取技术成熟、安全可靠、经济可行的空调改造方案,同时根据各地区气候环境及现场条件制定,有条件的应多举措并行,力求改造后能效达到最优值。10.8机房空调末端形式宜结合电子信息设备机架进出风形式、功率密度大小等因素,采用合适的房间级、列间级、机架级、芯片级的空调形式,当单机架功率≥6kW/架时,宜选择背板、前板、列间空调、顶置空调等靠近热源的末端方式。10.9机房空调末端应加强气流组织优化,做好冷热隔离,避免掺混。10.10空调冷风应直接送至冷通道或服务器进风口,回风应能直接回至空调机组,回风口不应布置在冷通道或空调送风射流区。10.11机房应进行气流组织设计,并应采用计算流体动力学对主机房气流组织进行模拟和验证。10.12应加强应用余热回收技术。充分开展余热利用,根据机房楼所在地的热源状况、供热需求建设余热回收方案,提供采暖或生活热水等,提高能源综合利用率。10.13空调和制冷设备的选用应符合运行可靠、经济适用、节能和环保的要求。11电气系统要求11.1电气系统应根据负荷日常运行工况的分布,选取合理的需要系数与同时系数,统筹规划系统的需求容量,充分利用电力资源。411.2电气系统应根据算力设施的等级选择合理的配置方案:A级算力设施的供配电系统应按容错系统配置,互为备用的设施应布置在不同消防分区,供配电系统应在一次意外事故后或单系统设备维护或检修时仍能保证智算设备正常运行;B级算力设施的供配电系统应按冗余要求配置,供配电系统在冗余能力范围内,不得因设备故障而导致电子信息系统运行中断;C级算力设施的供配电系统应按基本需求配置,在供配电设施正常运行时,应保证电子信息系统运行不中断。11.3算力设施的不间断电源系统应留有余量,并满足后期扩容需求。11.4算力设施的蓄电池应满足电源切换时间或智算设备备份时间的需求。采用发电机组或燃料电池作为备用电源时,A级算力设施的全部蓄电池的总备用时间不宜小于15分钟,B级算力设施的全部蓄电池的总备用时间不宜小于7分钟11.5应采用高密、环保的电池,采用电网交互式UPS,挖潜数据中心电池的储备能力,参与电网调节,提高能源利用效率。11.6积极消纳绿色电力,应利用建筑物屋面装设太阳能光伏板。11.7电气系统应采用集约化、链路短的预制化电力设备、末端小母线技术。11.8在保证设备安全性的基础上,应采用市电直供、ECO模式或其他智能管理模式的UPS、高压直流等高效节能电源方式。12综合监控系统要求12.1系统应根据算力中心不断发展的需要,方便地扩展系统容量和处理能力。12.2系统应具备支持多种监控对象接入能力同时,还可以根据算力中心的需要进行灵活、快速地调整,实现监控系统的快速部署。12.3系统应对算力中心进行全方位的监控管理,实时监视各种设备的工作状况和参数,依据监控信息对基础设施运行进行信息化管理,如运行管理、容量管理、生成报表等,实现通信机房绿色低碳化的运行和维护。12.4系统应支持能量数字化,具有可监、可管、可控的智能化功能,对智能设备实现直流输出配电单元的自动控制,分级上下电。12.5系统应支持削/错峰的智能储能功能,提升网络绿色低碳的能效水平。13给排水系统要求13.1冷却用水、生活用水、公用系统用水等的排水,宜按水质分类收集。经集中处理可以达到不同使用水质要求的排水,宜重复或多次应用。13.2应结合场地具体情况制定合理的雨水利用方案,降低场地径流总量,加大雨水入惨、调蓄和回用。场区设置水景的推荐采用雨水作为景观水体的补水,并采用景观水体作为雨水的调蓄。13.3给水排水管网应采取有效措施避免管网漏损,用水器具应采用二级及以上节水器具。13.4生活用热水的热源,宜选用数据中心产生的余热、太阳能、热泵等多种热源后回用。14资源池要求14.1计算资源池计算资源池应满足以下要求:a)支撑计算资源池运行的物理主机宜采用多核心处理器;b)物理主机的系统软件应包括可适应多核心的操作系统、编程环境和运行时环境支撑;c)应配置虚拟机管理器以实现单物理主机上多虚拟主机管理与配置;d)计算资源池管理平台应具有执行过程的高可靠性和随计算节点规模的增长而具有的高扩展性;e)应支持提供可动态调整的CPU、GPU、内存、存储、输入输出设备等资源以满足用户及业务需求;5f)应支持在物理机资源或虚拟机资源上的部署和管理,并至少支持分布式、集群或负载均衡其中一种能力;g)宜支持划分不同层次的计算资源以满足不同规格的计算资源需求;h)宜至少提供两种虚拟化产品支持。14.2网络资源池网络资源池应满足以下要求:a)应支持多租户和多业务对网络协议和带宽要求;b)应支持多样化业务,满足流量特性和行为要求;c)宜能够实现网络资源动态调整,实现不同网络协议和网络带宽的选择;d)应支持业务在不同网络环境之间平滑迁移;e)应实现不同租户或不同业务之间的网络资源隔离;f)网络资源应具备几余性和高可用性;g)应支持主流的网络协议,实现与主流计算服务平台及计算资源池的对接;h)应具备支持网络优先级管理。14.3存储资源池存储资源池应满足以下要求:a)应能够通过对多台异构物理存储设备的识别和管理实现资源池化;b)应能够实现数据的分层存储及数据的生命周期管理;c)应兼容多种的存储方式,满足计算、网络等资源池的访问要求;d)应支持多种数据类型的数据存取;e)应具备冗余的数据存储能力,并能够实现存储资源的动态调整、数据高可用性、数据迁移、自动精简配置;f)宜支持多种存储系统的统一管理;g)g)应支持存储多路径技术;h)应提供完整性保障机制;i)应提供本地数据备份能力,宜提供异地数据灾备能力。15算力平台要求15.1算力中心应提供算力平台操作系统,方便用户使用算力资源。15.2算力中心应支持主流的数据库、中间件产品运行,宜提供此类系统供用户使用。15.3算力中心应建立算力调度系统,合理分配不同用户、不同强度、不同重要性/可用性计算任务使用不同的算力资源。应集中调度和使用算力资源,提高算力资源利用率,能够挂起过渡冗余的算力资源以实现节能。15.4算力中心应支持算力任务跨设施调度。16运行维护要求16.1算力中心运行维护管理应满足GB/T28827.4-2019的要求。16.2应建立完善有效的安全管理制度和流程,确保算力中心的场地安全、人员安全、物理安全、系统运行安全、网络安全和数据安全。16.3应建立统一的管理平台。实现对资源池、场地机电设施、温湿度环境、漏水、安防等的集中监控和运行维护管理。宜支持自动化辅助。16.4应对各类设施和资源的常规操作进行日志记录,并对日志进行备份、分析,实现对各类设施和资源的行为管理和操作审计。16.5应对各类设施和资源进行分级和分区管理。宜实现面向多租户的自助服务。616.6应通过统一的下载与验证,依托补丁管理平台对各物理和虚拟机的软件版本进行升级和补丁。17算力设施冷却节能要求17.1采用冷冻水空调系统时,宜采用大温差和高水温的运行方式,冷冻水供水温度应不低于15℃,冷冻水回水温度应不低于21℃,同时具备条件时宜提升供水温度至不低于20℃。17.2夏季空气调节室外计算湿球温度低、温度日差较大的地区,宜优先采用直接蒸发冷却、间接蒸发冷却或直接蒸发冷却与间接蒸发冷却相结合的二级或三级蒸发冷却的空调系统形式。17.3采用“面对面、背对背”的机架排列方式时,宜采用冷、热通道封闭隔离的气流组织形式。17.4数据中心采用全新风空调系统时,应对新风的温度、相对湿度、空气含尘浓度、污染物浓度等参数进行检测和控制。17.5对于智算中心,当单机架功率小于20kW的低密制冷需求,可参照传统通用计算数据中心绿色节能制冷技术方案;对于单机架功率20kW及以上的高密制冷需求,宜采用液冷技术方案。17.6当数据中心选址附近有江河湖水、海水等天然冷源利用的条件时,经过经济评价后,且不对自然环境造成较大不利影响时,宜利用其为数据中心降温。17.7数据中心空调系统运行宜结合人工智能技术进行调优。17.8机房加湿方式宜优先采用湿膜加湿等低能耗加湿方式。18能源综合利用要求18.1数据中心设计应考虑引入光伏、储能、氢燃料电池等能源作为补充,将数据中心与新能源建设甚至其他应用场景如充电站运营、梯次电池利用等统一考虑,搭建综合性系统,各种应用之间互补,减少在备份系统上面如柴发的投资。18.2应使用电能管理控制系统EMS完成电能调度控制、优化系能源运行策略、电能数据采集、整理、存储和收益展示。18.3应分析新能源接入方案,在现场实施前确保方案的准确性,保证新能源平顺接入,避免新能源的接入对原有电力系统造成较大冲击,实现绿色低碳。18.4应使用电力系统仿真分析软件提供从系统建模、仿真计算、设计规划、监控控制到操作员培训、优化和自动化的全生命周期管理的各种方案。18.5基于时间、辐照度对光伏发电的影响,应用时序潮流、地区辐照度等功能精确仿真分析光伏发电,确定光伏接入方案。18.6基于风机厂商/模型库,包括传统异步电机,变转差异步电机,双反馈异步电机,直驱风力发电机等,同时可以使用自定义动态建模,对不同规模的风电场进行稳态和暂态仿真分析,确定风电接入方案。18.7应使用可再生能源设备模型,进行交直流混合潮流分析、仿真计算和设备选型验证。19资源综合利用要求19.1应采用热泵、涡轮机等余热回收技术来收集数据中心的余热。数据中心辅助区和周边区域有供暖或生活热水需求时,设置热回收系统有效利用数据中心产生的余(废)热,余热回收量宜大于服务器发热量的10%以上。19.2再生水利用应因地制宜,市政再生水输配管网覆盖范围内的数据中心优先利用市政中水。19.3再生水优先用于循环冷却水系统补水,水质应符合现行国家标准《采暖空调系统水质》GB/T29044的规定。19.4对再生水处理设施、设备运行状态、水量、pH值、浊度等常用控制指标应实现现场监测,有条件的可实现在线监测。20储能要求720.1自建可再生能源发电设施的场景,如发电量大于实际运行消耗时,应配置储能设施;发电量可被全部消纳的,可考虑既发即用的模式。20.2峰谷电价差大、高峰用电负荷受限的场景,经综合分析对比后,可建设储能设施,优化运行成本。21算力度量与评估21.1应采用“每秒浮点运算次数”(Floating-pointOperationsPerSecond,FLOPS)评估数据中心的通用算力、智能算力和高性能算力。21.2应采用双精度(FP64)浮点计算能力评估数据中心的高性能计算能力,采用单精度浮点(FP32)数计算能力评估数据中心的通用计算能力,采用半精度(FP16)浮点计算能力评估人工智能计算能力。21.3数据中心算力(ComputationalPower,CP)的模型如下:CP=f(通用算力,高性能算力,智能算力)注:影响算力的因素主要包括电力容量、机架数量、机房供电密度、电力和空间的使用率、IT设备算力水平和高密集成程度等,算效作为能效指标用于衡量单位IT设备耗电量所能产生的算力。21.4算力基础设施中一般算力、存力、运力等能力同时存在,进行设备性能评估时,应根据设备的任务或业务类型将设备划分为算力系统、存力系统、运力系统范围,针对算力系统范围设备采用算力指标评估,存力系统范围设备采用存力指标评估,运力系统范围设备采用运力指标评估。21.5算力评估宜分为设备级算力和业务系统级算力:a)设备级算力评估指针对单算力设备,采用算力基准测试工具,测量单算力设备算力。b)业务系统级算力评估针对某个业务或集群系统范围,测量业务或系统集群级算力。22算效度量与评估22.1数据中心算效为数据中心算力与IT设备功耗的比值,即“数据中心每瓦功耗所产生的算力”(单位:FLOPS/W),是同时考虑数据中心计算性能与功耗的一种效率,其计算公式如下:CE=CP/ΣIT设备功率22.2提高数

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论