中国液冷数据中心市场深度研究报告 2023_第1页
中国液冷数据中心市场深度研究报告 2023_第2页
中国液冷数据中心市场深度研究报告 2023_第3页
中国液冷数据中心市场深度研究报告 2023_第4页
中国液冷数据中心市场深度研究报告 2023_第5页
已阅读5页,还剩147页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

中国液冷数据中心市场深度研究报告1随着“数字中国”建设持续推进,以及“双碳”目标时间节点临绿色和可靠性要求。液冷技术具有高效散热、节能降耗等显著优势,具备长期环境效益及经济效益,正逐渐成为数据中心冷却的最优解决2022年以来,中国液冷数据中心市场呈现出快速发展态势,市场规模达到40%以上高速增长,产业链上下游企业积极布局,液冷项目试点以及商业化落地进程不断加快,行业标准建设持续深入,产业链生为深入洞察中国液冷数据中心市场的现状和发展趋势,科智咨询联合中国信息通信研究院产业与规划研究所共同发布《中国液冷数据中心市场深度研究报告》,通过调研分析大量市场数据、行业案例,全景呈现中国液冷数据中心市场发展现状与前景方向,探讨未来市场发展的趋势和机遇,为产业链企业提供参考和借鉴,为液冷数据中心正文目录 10 17 20 24 29 32 40 42 46 50 54 56 60 68 72 77 79图表1:数据中心在数字经济发展中的基础性作用 2图表2:2017-2022年中国数据中心机柜规模及增长 3图表3:2022年数据中心实际PUE与政策要求PUE差异比较 4图表4:国家层面液冷数据中心政策 5图表5:地方层面液冷数据中心政策 6图表6:主流芯片制造商芯片功耗增长预测 7图表7:数据中心冷却技术分类 11图表8:不同数据中心冷却方式制冷效果 11图表9:冷板式液冷原理示意图 14图表10:浸没式液冷原理示意图 15图表11:喷淋式液冷原理示意图 16图表12:数据中心液冷技术方案对比 18图表13:中国液冷数据中心产业链图谱 20图表14:液冷数据中心业务落地流程示意图 23图表15:2019-2022年中国液冷数据中心市场规模 25图表16:2019-2022年中国冷板式液冷数据中心市场规模 26图表17:2019-2022年中国液冷服务器市场规模 27图表18:2019-2022年中国液冷数据中心基础设施市场规模 28图表19:中国液冷数据中心产业生命周期 29图表20:2022年中国液冷数据中心市场行业需求结构 41图表21:不同行业用户液冷数据中心部署原因 42图表22:2019-2022年中国泛互联网行业液冷数据中心需求规模 43图表23:头部泛互联网企业液冷技术布局及应用 44图表24:2023-2027年中国泛互联网行业液冷数据中心需求规模预测 45图表25:2019-2022年中国泛政府行业液冷数据中心需求规模 46图表26:泛政府领域液冷数据中心项目部署案例 47图表27:政府主导建设智算中心项目情况 48图表28:2023-2027年中国泛政府行业液冷数据中心需求规模预测 49图表29:2019-2022年中国电信行业液冷数据中心需求规模 50图表30:基础电信运营商早期液冷技术验证 51图表31:2023-2027年中国电信行业液冷数据中心需求规模预测 53图表32:2019-2027年中国金融行业液冷数据中心需求规模及预测 54图表33:液冷数据中心市场细分领域玩家竞合关系 57图表34:液冷服务器业务发展关键因素 60图表35:中国液冷数据中心市场服务器厂商竞争态势 61图表36:超聚变主要液冷服务器产品 63图表37:浪潮主要液冷服务器产品 64图表38:宁畅信息主要液冷服务器产品 65图表39:新华三主要液冷服务器产品 66图表40:主要液冷基础设施厂商技术线和产品线情况 68图表41:2023-2027年中国液冷数据中心市场规模预测 73图表42:2023-2027年中国冷板式液冷数据中心市场规模预测 74图表43:2023-2027年中国液冷服务器市场规模预测 75图表44:2023-2027年中国液冷基础设施市场规模预测 76中国液冷数据中心产业发展背景提升的背景下,液冷系统凭借高效散热能力,在数据中心的2第一章丨中国液冷数据中心产业发展背景近年来,中国数字经济保持较快发展。各区域各行业数字产业政策密集出台,以及5G、AI、工业互联网、区块链等数字技术逐步成熟落地,推动数字经济持续快速增长,成为国家及社会经济发展的核心设深入推进,将推动以数据为核心的数字经济进程不断推进,向更深2022年,中国数字经济规模达到50.2万亿元,同比名义增长10.3%,占国内生产总值比重提升至41.5%。根据国家网信办,截至字经济基础设施底座,中国数字经济快速发展,数字产业化及产业数字化进程推进,数据量爆发式增长,将直接带动数据中心市场快速增3第一章丨中国液冷数据中心产业发展背景智能ABC(人工智能、大数据、云计算)、5G、数字孪生技术等新兴数字技术由研发阶段逐步迈向应用阶段,大量数据存储、传输和计算需数据中心具有高耗能属性,根据科智咨询统计,2022年全年用电量达到845.2亿千瓦时,占全社会用电量约1%。伴随数据中心规模持续扩大,基于现阶段技术和系统架构,数据中心用电量将快速上升。因此数据中心产业可持续发展需要考虑采用更加节能效果更好的技术“双碳”目标提出以来,国家及地方政府出台相关政策,对PUE4第一章丨中国液冷数据中心产业发展背景(数据中心总能耗/IT设备能耗)提出更高要求,工信部《新型数据中心发展三年行动计划(2021-2023年)》提出到2023年底,新建大型及以上数据中心PUE降低到1.3以下,东数西算枢纽节点及寒冷地区策要求与数据中心实际运行PUE仍有较大差距,需要采用更加高效节第一章丨中国液冷数据中心产业发展背景数据中心PUE是衡量数据中心环境能耗的指标,除IT设备外,数据中心运行能耗主要来自制冷系统。根据科智咨询测算,以运行PUE为1.57的数据中心为例,IT设备能耗占比为63.7%,其次是制冷制冷方案,传统风冷技术PUE极限值为1.25,液冷技术能够实现数据液冷技术作为高效绿色的数据中心冷却方案,成为国家及地方政策鼓励采用的重要节能技术。在国家层面,政策从算力集约化和绿色2023年财政部、生态环境部、工业和信息化部《绿色数据中心政府采购需求标准(试行)》数据中心相关设备和服务应当优先选用新能源、液冷、分布式供电、模块化机房等高效方案。2021年国家发展改革委、中央网信办、工业和信息化部、国家能源局《贯彻落实碳达峰碳中和目标要求推动数据中心和5G等新型基础设施绿色高质量发展实施方案》支持数据中心采用新型机房精密空调、液冷、机柜式模块化、余热综合利用等方式建设数据中心。2021年工业和信息化部《新型数据中心发展三年行动计划(2021-2023年)》备、液冷等高效制冷系统、高压直流等高效供配电系统、能效环境集成检测等高效辅助系统技术产品。鼓励企业加大技术研发投入,开展新型数据中心预制化、液冷等设施层,专用服务器、存储阵列等IT层,总线级超融合网络等网络层的技术研2021年国家发展改革委、中央网信办、工业和信息化部、国家能源局《全国一体化大数据中心协同创新体系算力枢纽实施方案》推动数据中心采用高密度集成高效电子信息设备、新型机房精密空调、液冷、机柜模块化、余热回收利用等节能技术模式。6第一章丨中国液冷数据中心产业发展背景在地方层面,除贯彻落实国家宏观政策外,政府通过对使用液冷技术的数据中心提供奖励,扩大液冷数据中心规模,提升地区能效水平,鼓励液冷服务器、液冷设备等产业发展等方式,促进液冷产业链2022年北京市经济和信息化局《北京市推动软件和信息服务业高质量发展的若干政策措施》对数据中心转型为算力中心或涉及余热回收、液冷、氢能应用的,按照固定资产投资的30%进行测服务平台”的数据(算力)中张家口2019年张家口市人民政府《中国数坝.张家口市大数据产业发展规划(2019—2025年)》立足坝上地区水资源缺乏的实际,鼓励企业采用浸没式液冷技术、冷板式冷却技术或无蒸发式水冷技术提高水资源使用效率。上海2022年上海市经济和会、上海市发展和改革委员会《上海市经济信息化委市发展改革委关于推进本市数据中心健康有序发展的实施意见》加快绿色新技术新产品运用。鼓励应用高密度集成等高效IT设备、液冷等高效制冷系统、高压直流等高效供配电系统、能效环境集成检测等高效辅助系统技术产品。浙江2021年浙江省发展和改革委员会、浙江省经济和信息化厅《浙江省数字基础设施发展“十四强化绿色节能设计,加快研发应用液冷服务器、能源管理信息化系统、分布式供能等新技术,减低数据中心传统电源用电负荷。2021年浙江省发展改革委、省经信厅等五部门《浙江省推动数据中心能效提升行动方案(2021-2025年)》支持数据中心采用新型机房精密空调、高效电源设备、液冷技术、机柜式模块化、削峰填谷应用、余热综合利用等方式建设数据中心。广东2023年广东省发展和改革委员会、广东省能源局等七部门《广东省绿色高效(2023-2025)》7第一章丨中国液冷数据中心产业发展背景2022年重庆市通信管理局、重庆市经济和信息化委员会等十部门《重庆市信息通信行业绿色低碳发展(2022-2025年)》积极应用液冷型、高温型IT设备,提高数据中心IT设备能效。成都2022年成都市经济和信息化局《全国一体化算力网络成渝国家枢纽节点(成都)推进方案》鼓励数据中心采用间接蒸发冷却、近端制冷、液冷、余热综合利用等先进供冷技术。芯片散热效率要求提升,高算力应用场景涌现,驱动单机柜功率近年来,市场主流芯片功耗密度持续提升,散热需求快速增长,Intel、ADM等主要芯片制造商持续提高芯片的散热设计功耗TDP(ThermalDesignPower),主流系列处理器功耗已达350-400TDP/W。此外,AI应用发展推动GPU需求增长,GPU功耗密度远高于CPU,NVIDIAH800功率密度达到700TDP/W,已突破传统风冷系统散热能力8第一章丨中国液冷数据中心产业发展背景从用户需求来看,高算力应用场景部署需求不断增长,单机柜密通用算力场景中,高算力部署需求主要集中在公有云及互联网领域。公有云业务基于IT基础资源提供服务,未来一段时间仍将保持40%以上的快速增长,需要通过高密部署实现降本增效;以云游戏为代伴随ChatGPT的商业化落地,智算需求将快速提升。国内百度、阿里、腾讯、华为、字节等互联网大厂陆续推出AIGC算力模型,基于GPU的智能算力部署将持续提升,智算中心单机柜密度一般在20kW以上,需要部署液冷系统达到散热要求。根据2023年10月工信部等六部门发布的《算力基础设施高质量发展行动计划》,到2025年,中国算力规模将超过300EFLOPS,其中,智能算力占比将达到35%,智算伴随高密应用场景增加以及IT部署密度提升,数据中心需要采用更加高效的散热方式,传统风冷技术散热上限一般为单机柜20kW,难以满足更加高密的部署;部分项目试点采用水底、山洞等方式进行冷却,但受到特殊自然环境限制,难以推广;液冷通过用高比热容的液体取代空气作为热量传输的媒介,直接或间接接触发热器件,散热效中国数据中心产业液冷技术发展及应用概况目前液冷发展形成三条技术路线:冷板式、喷淋式、浸没式液冷。冷板式液冷方案与传统技术相比差异性小,部署成本低,根据科智咨询统计,现阶段在液冷数据中心中应用比例超过90%,但冷板式方案制冷效率略低于浸没式。伴随高算第二章丨中国数据中心产业液冷技术发展及应用概况集合了大量电子元器件。数据中心的持续运行产生大量热量,需要进行冷却散热及时将热量排出,保障其性能和稳定性。因此冷却系统是数据中心重要组成部分。根据冷却介质的不同,数据中心冷却可划分数据中心风冷冷却方式利用空气作为冷却介质,通过空气处理机引入外部空气,经过冷却后进入服务器机架的冷通道,对服务器进行冷却,冷却后的空气从热通道排出,通过充气室返回空气处理机。根据是否采用自然冷源,风冷可以分为机械制冷和自然冷却。机械冷源由于末端工作媒介的不同,划分为DX制冷(直膨式制冷:制冷剂在蒸发器中膨胀蒸发对空气直接进行制冷,中间不经过水等换热媒介)和冷冻水制冷;自然冷源根据换热介质的不同可以分为风侧、水侧、氟不同于风冷冷却方式,液冷通过用高比热容的液体取代空气作为热量传输的媒介,直接或间接接触发热器件,吸收并带走其产生的热量,满足设备散热需求。相比传统风冷,液冷技术具备超高能效、超高热密度等优点,是现阶段及未来长期内电子设备解决散热压力、应对节能挑战的重要途径。液冷技术方案可划分为浸没式、喷淋式、冷第二章丨中国数据中心产业液冷技术发展及应用概况不同数据中心冷却方式散热效果存在差异,单机柜密度在20kW以下的数据中心采用风冷即可满足散热需求,功率密度超过20kW需要采第二章丨中国数据中心产业液冷技术发展及应用概况等显著优势。能耗方面,液冷系统传热路径短,低温液体由CDU(冷量分配单元)直接供给通讯设备内,换热效率高,PUE可低至1,1;成本方面,低PUE能够降低数据中心运营成本,液冷数据中心初期建设投资略高,一般两年左右可实现投资成本回收;噪声方面,液冷技术利用泵驱动冷却介质在系统内循环流动并进行散热,能够降低冷却风机转速或者采用无风机设计,解决传统风冷机房噪音污染问题;空间利用方面,液冷机柜单机柜功率高,在支撑同等规模的IT负载下,液冷液冷数据中心散热系统架构由室外(一次侧)和室内(二次侧)两部分组成。室外冷却塔中的冷却液通过室内冷却液体流量分配单元提供冷却液循环动力,经CDU二次侧输出并与服务器中发热电子元器件(CPU、GPU、内存等)的导热冷板直接进行热交换,形成的热液经CDU用于在液体回路之间进行热交换,分为机架式(嵌柜式)、机柜式和平台式等,主要作用是隔离一次侧与二次侧回路,并在其内部二次侧系统包括供回液歧管、快速接头等关键部件。供回液歧管主要用于将从CDU分配进入各机架内的冷却工质再次均匀分流到各IT设备,并从出液端收集回流液体,由于连接点存在泄露风险,通常设置在机柜底部。快换接头能够快速连接或断开IT设备或其组件与液冷系统的连接,并确保其具备自封功能,通常是公/母配置配对使用的,第二章丨中国数据中心产业液冷技术发展及应用概况断开时,集成在快换接头内部的用于密封流体流动的自封阀芯会断开一次侧指室外制冷系统,根据二次侧末端的水温和室外的气象参数不同,可分为自然冷却和机械冷却两种形式,自然冷却系统主要包括开式冷却塔、闭式冷却塔和干冷器,可提供30℃以上冷却水;机械制冷系统主要包含风冷冷冻水系统和水冷冷冻水系统,可提供12-18℃液冷技术类型根据冷却液和发热设备接触换热方式的不同,可划冷板式液冷通过把冷板与发热器件紧密固定,将发热器件的热量传导给冷板中的冷却液,并将冷却液中的热量运输至后端冷却。液冷数据中心应用场景中,冷板式液冷对于服务器芯片组件及附属部件改动较小,主要途径为加装液冷模块,采用集中式或分布式CDU供液、目前,冷板式液冷数据中心已形成相对成熟的解决方案,通过冷板和CDU带走IT设备超过80%的热量,该部分直接由冷却塔带走;另外20%的热量可通过后置被动式液冷门,经由冷水机组和冷却塔之间换热,支持25-28℃高温水带走热量(高于行级空调18℃以下供水温),第二章丨中国数据中心产业液冷技术发展及应用概况根据冷板的不同,非接触式液冷可分为局部冷板和全覆盖冷板。局部冷板仅支持核心部件散热,具有与传统机房兼容性好的特点,但需要风冷解决其他部件散热问题;全覆盖冷板覆盖所有部件,但由于部分部件可插拔、形态非标,存在技术难题,可进行一体化设计,所浸没式液冷通过将发热元件浸没在冷却液中,直接吸收设备产生的热量。根据工质是否产生相变划分为单相浸没式液冷和双相浸没式单相浸没式液冷的冷却液在循环散热过程中始终维持液相,由于要确保冷却液不发生相变,单相浸没技术通常使用高沸点的冷却液,同时满足绝缘性强、黏度低、腐蚀性小,毒性小等性能要求,常用氟碳化合物和碳氢化合物(矿物油、合成油、天然油等),具有部署成双相浸没式液冷方案下,在密闭的浸没式箱体中安装放置服务器/第二章丨中国数据中心产业液冷技术发展及应用概况交换机和低沸点的冷却液,冷却液受热升温,达到沸点后沸腾发生相遇到水冷冷凝器后热量被吸收,凝结成液滴,滴落回容器再次冷却循环,冷凝器中被加热的冷却水则通过循环冷却水系统完成排热。用于双相浸没式的冷却液需要有更稳定的物理特性、化学及热稳定性、无腐蚀性、合适的沸点、较窄的沸程范围以及较高的汽化潜热,一般选用硅酸酯类、芳香族物质、有机硅、脂肪族化合物以及氟碳化合物作浸没式液冷对服务器及浸没腔体有较高要求,需要对腔体进行定制,采用高密设计,同时采用结构定制化设计,满足液体与发热器件喷淋式液冷和发热器件直接接触,依靠泵压或重力驱动,向发热第二章丨中国数据中心产业液冷技术发展及应用概况设备自上而下精准喷淋,吸收并带走热量,排走的热流体与外部环境冷源进行热交换,冷却液无相变。喷淋式液冷的冷却液需具备绝缘、导热、抗氧化性等特点,不发生相变,但在喷淋过程中存在液体飘逸和挥发问题,应用成本较高,且不适合高密度服务器和超大规模数据第二章丨中国数据中心产业液冷技术发展及应用概况但从行业渗透来看,中国数据中心领域液冷应用尚未实现规模化。现阶段数据中心市场以通用算力部署为主,风冷冷却方案能够满足大部分传统数据中心散热需求,液冷技术主要应用于超算、智算领域,部分头部行业用户进行少量试点应用。伴随大数据、算力、算法快速迭液冷数据中心可采用冷板式液冷、浸没式液冷和喷淋式液冷三种技术路线,根据科智咨询统计冷板式液冷方案应用比例达到91%,是现冷板式液冷具有良好的兼容性,不需要对数据中心机房进行大规可靠性高、易展开维护性设计,噪音低,空间利用率高、且热能可回浸没式液冷和喷淋式液冷直接接触冷却液,兼容性差,专用机柜对于第二章丨中国数据中心产业液冷技术发展及应用概况接触形式冷却液不接触发热体,采用导热板传热冷却液浸泡发热体冷却液喷淋发热体建设成本主要成本在换热系统和冷却系统,成本适中冷却液用量较多,与冷板式相比,成本高通过改造机柜增加必须装置,成本较小服务器改造成本需要定制冷板,成本高基本无需改造,成本较低改动小,成本中等运维成本运维成本低运维成本适中运维成本适中冷却液冷却液用量小,要求低冷却液使用量大,对冷却液安全性要求高冷却液用量适中,要求高服务器兼容性根据服务器定制冷板,兼容所有机器根据冷却液不同,需进行兼容性测试根据冷却液不同,需进行兼容性测试利用率较高噪音程度较低低较低环境影响无冷却液相变过程可能会导致气体蒸发外散冷却液雾滴和气体可能散发到机箱外冷却效果较好优秀优秀使用场景无限制有限制有一定限制应用程度目前应用最广泛适用于对功率密度、节能性要求较高的大型数据中心不适合高密度服务器和超大规模数据中心,现阶段落地应用相对较少供应商超聚变、浪潮曙光数创广东合一中国液冷数据中心市场发展现状分析根据科智咨询,2022年,中国液冷数据中心市场规模达到100.5亿元,同比增长47.2%,其中,液冷服务器市场规模80.3亿元,同比增长45.5%。政策鼓励发展、需求即将爆发、技术趋于成熟推动下,液冷数据中心市场进入较快发展阶段,但同时产业发展面临标准不统一、产业链生态不完善、技术验证不成熟等阻碍因素,需要液冷系统各部件企业第三章丨中国液冷数据中心市场发展现状分析液冷数据中心产业链由上游液冷产品零部件及设备厂商、中游液冷产品及解决方案提供商、下游液冷数据中心应用主体构成。上游液冷产品零部件及设备包括冷却液、CDU、电磁阀、连接器、manifold、TANK等;中游是产业链核心环节,主要为液冷服务器、基础设施服务商以及液冷系统集成方;下游为液冷数据中心终端用户,主要包括政府相关单位、基础电信运营商、泛互联网厂商及能源、生物医药、AI伴随液冷市场热度攀升,产业链上下游企业积极拓展业务布局,产业上游连接器方面,国内企业高端精密连接器的研发能力和工艺技术不断提升,在液冷连接器领域,中航光电和英维克为行业龙头企业。冷却液是浸没式液冷技术的关键原材料,代表厂商包括纯均光第三章丨中国液冷数据中心市场发展现状分析冷、巨化股份等,安徽星载、云酷智能等部分液冷基础设施服务商正在尝试自研冷却液。CDU主要由机箱、水泵、板换、阀、膨胀罐、管路等部件组成,起到热交换作用,目前科华数据、同飞股份等企业均有产业中游,超聚变、浪潮、宁畅、联想、新华三等液冷服务器厂商依托IT核心部件,掌握产业链核心价值控制点,同时基于服务器产品提供综合性解决方案及服务,其中,超聚变业务发展较快,根据IDC咨询,超聚变2022年中国区标准液冷服务器出货量第一。曙光数创、申菱环境、云酷智能等设备厂商凭借在精密温控领域的技术及经验,提供液冷基础设施产品及解决方案。除冷却系统外,液冷数据中心与传统数据中心的设计、建设差异性较小,曙光、华为等数据中心集成商及润泽、秦淮、中联云港、科华数据等具有综合建设能力的第三方IDC服务商具有一体化交付能力和服务经验,为终端用户提供液冷数据产业下游,以字节跳动、阿里等为代表的头部互联网企业基于技术及资金优势,进行液冷应用试点,希望形成成熟的解决方案以实现降本增效;同时,头部互联网企业业务发展需要大量高密计算场景,是现阶段液冷市场主要需求方,也是推进液冷产业发展的关键力量。基础电信运营商在产业链中扮演多重角色,一方面,运营商拥有大量自用数据中心和市场型数据中心,是现阶段液冷数据中心重要客户;另一方面,运营商依托其数据中心整体设计能力,积极参与液冷市场现阶段,第三方IDC服务商在液冷数据中心产业链中扮演集成角第三章丨中国液冷数据中心市场发展现状分析色;未来,算力网络、算力调度等算力产业生态持续完善,将驱动数据中心业务模式变化,IDC服务商的商业模式或将从提供基础设施延展液冷数据中心部署涉及液冷数据中心系统架构层、液冷部件及接口层、液冷基础设施层、液冷监控系统层等多方面,需要各零部件之同时要参与到系统设计、实施、运维等全部署流程,提供解决方案服务。为便于各环节定制,现阶段终端用户在部署液冷系统时更倾向于一体化采购模式,由总包方进行综合协同,总包方一般为两类群体,二是具有机房设计、建设能力的数据中心总包方或IDC服务商,对于液冷服务器直接关系到终端用户业务运行,是核心价值所在,一第三章丨中国液冷数据中心市场发展现状分析第三章丨中国液冷数据中心市场发展现状分析近年来,中国液冷数据中心市场快速发展,保持30%以上的市场增同比增长47.2%,较之前年份有较大规模提升。节能政策、市场需求以及液冷技术标准化进程的推进,共同驱动2022年液冷数据中心市场热政策方面,2020年以来,国家出台新基建政策,鼓励数据中心建设与发展,但数据中心大规模落地加剧能耗问题,发改委等部门发布相关政策,明确要求到2025年全国新建大型、超大型数据中心PUE低于1.3,东数西算国家枢纽节点PUE应低于1.25。各省市也陆续布政策,对既往及新建的数据中心提出了相关要求。随着“双碳”压力不断加大,传统风冷式数据中心逐渐无法满足数据中心节能降耗需求,2022年,液冷需求迎来一波增长高潮,头部泛互联网企业出于降本增效考量,进行高密部署,同时通过应用液冷技术降低运营成本;基础电信运营商加大液冷技术试点力度,在全国范围内部署200+液冷标准化、规范化是液冷技术进入大规模商用阶段的主要阻碍。准正式发布,2022年4月1日正式实施,行标的出台推进液冷第三章丨中国液冷数据中心市场发展现状分析注:液冷数据中心市场规模统计维度包括液冷服务器和液冷数据中心基础设施市场冷板式液冷对于服务器及相关部件的改动较小,技术发展较为成熟,经过较长时间的市场应用,已经形成相对完整的产业链生态,总体成光模块等部件与风冷一致,运维模式、机房承重与风冷场景也基本一致,同时单点散热能力在700W以上,可以有效降低数据中心PUE,更同比增长45.4%,占整体数据中心市场规模比例达到90%。浸没式方案第三章丨中国液冷数据中心市场发展现状分析注:冷板式液冷数据中心市场规模统计维度包括冷板式液冷服务器和数据中心基础液冷冷却方案的市场渗透率逐步提升,带动液冷服务器出货量快速增长。2022年,中国液冷服务器市场热度攀升,市场规模达到80.3亿元,同比增长45.5%。一方面,头部互联网企业及三大基础电信运营商积极推进液冷项目试点,采购液冷服务器;另一方面,主流服务器厂商加快布局液冷领域,推出液冷服务器产品,推进与液冷基础设施第三章丨中国液冷数据中心市场发展现状分析液冷数据中心基础设施为液冷服务器提供稳定运行环境,需要根据服务器材质、型号以及项目的实际情况进行定制化设计及生产,市场增长略滞后于液冷服务器市场。2022年,中国液冷数据中心基础设第三章丨中国液冷数据中心市场发展现状分析第三章丨中国液冷数据中心市场发展现状分析现阶段,中国液冷数据中心产业处于起步阶段向快速成长阶段发产品及技术解决方案基本成型,但最终技术选型还需要经过一定周期的验证和市场筛选;行业用户逐步扩大液冷试点,仅部分头部互联网企业开展规模化应用,行业需求尚未进入爆发期;市场参与方数量增液冷数据中心发展对于产业生态建设有较高要求,目前市场发展不成熟,存在生态不健全、标准不统一的问题,产业链上下游企业在业务竞争的同时,积极寻求技术验证、产品适配等方面的生态协作,第三章丨中国液冷数据中心市场发展现状分析液冷数据中心技术密集,对产品性能及可靠性要求高。液冷核心产品生产需要兼顾压力、温度、流量、功率等,并考虑与数据中心冷源系统、输配系统等方面的适配度,形成较高的技术门槛。例如,液冷连接器要求防水密封、高耐用度及材质兼容性,众多技术要点保证其可靠性和绝对密封性。同时液冷技术碎片化特征明显,技术路径、产品规格多样,因此拓展制造工艺和产品种类不仅是限制液冷设备零另外,产品、设备的研发设计、制造和应用涉及材料、力学、电子等跨学科的交叉融合,在液冷数据中心设计、建造、运维上需要复从技术方面看,由于液体比热容不受海拔与气压影响,可以保持较高的散热效率,液冷技术够降低数据中心环境依赖性,保证数据中心在不同地区的运行效率。从算力需求角度看,东部地区人口和产业密集,经济较发达,产生大量算力需求;同时,政策对数据中心能耗提出更严格要求,随着一线城市能耗指标和电力指标趋严,数据中心目前东部地区数据中心机柜规模占全国机柜总量60%以上,因此,在算力需求与能耗监管政策的双重推动下,东部地区液冷数据中心市场发第三章丨中国液冷数据中心市场发展现状分析目前,互联网行业是液冷商业化的主要用户,并率先开启液冷技术在数据中心技术验证和试点。随着业务不断发展,大型互联网企业数据中心制冷要求也随数据量与机柜功率的提升而提高。但由于液冷技术发展不够成熟、应用成本高等问题,目前仅部分互联网大厂在自基础电信运营商自2017年起即积极试点,推进液冷技术验证,并于2023年起开始规模化试点,基于运营商的数据中心能力、行业影响泛政府领域中,液冷技术主要应用于科研、教育等领域及政府主导的智算中心。智算中心作为信息基础设施的重要组成部分,为快速增长的人工智能算力需求提供基础支撑,在推进AI产业化、产业智能化等方面发挥显著作用。现阶段,智算产业尚不成熟,政府积极推进第三章丨中国液冷数据中心市场发展现状分析在碳达峰碳中和战略目标下,节能降碳、绿色高效成为数据中心产业发展方向,政策对数据中心PUE的要求成为行业加速导入液冷的“双碳”目标提出后,国家对数据中心能耗对PUE水平提出更加严格要求,2022年出台的《工业能效提升行动计当前中国数据中心平均PUE仍然较高,能源使用效率有待提升。根据科智咨询统计,2022年全年用电量达到845.2亿千瓦时,占全社散热系统耗能占数据中心总能耗约67%,因此降低制冷侧能耗成为数据相比风冷,液冷技术能够有效降低PUE。数据中心耗电量不断提升的背景下,绿色低碳成必然趋势,而数据中心冷却系统能耗仅次于IT设备的能耗,采用液冷技术,能够有效降低冷却系统能耗,进而降低数据中心PUE。据科智咨询统计,传统风冷方案的数据中心PUE一般在1.5左右,采用液冷的数据中心PUE可以降低至1.05-1.2左右,有助第三章丨中国液冷数据中心市场发展现状分析CPU、GPU芯片性能提升带动服务器及单机柜功耗大幅提升,液冷成为数据中心制冷方案更优选择,有利于解决不断提高的设备能耗与传统风冷系统的散热效率无法与高功率机柜的散热需求相匹配。一方面,受数据中心建筑面积与单位运营成本等因素的影响,增加单机柜功率密度成为解决快速增长的算力需求与有限的数据中心负载之间的有效方案。伴随高密度信息技术设备快速发展及用户需求向高密功率密度将成为目前新建数据中心的主流选择;存量数据中心为提升市场竞争力也会通过升级改造提高单机柜IT负载。预计到2025年单IT机柜功率密度将向20kW演进。在AIGC的推动下,单机柜功率上升另一方面,风冷方式移热速率较低,自然风冷的数据中心单机柜密度一般只支持8-10kW,风冷加间接蒸发制冷方案在机柜功率超过随着数据中心机柜产热量增加,液冷方案散热优势逐步凸显。相实现数据中心PUE低至1.2以下,符合机房高密度演进趋势,同时促液冷方式有助于适当降低数据中心建设和运营成本,优化数据中第三章丨中国液冷数据中心市场发展现状分析构成了数据中心建设投资的主体。其中,制冷设备、柴发设备、配电设备、电源系统等投资占比较高,是数据中心机房建设的重点投资内液冷方案与风冷方案相比:1)其机电部分的Capex可节省冷冻水机组/冷冻水精密空调,减少UPS和开关设备的容量等;2)需要增加密封机箱、冷却液、冷板、热交换器、防滴漏连接器和机架式分液器等液冷设备方面的成本;3)液冷方案下同样外电体量的数据中心内空间利用率更高,能承载更多IT设备,每ITkW(IT设备功率)下的分摊成本更低。一般情况下,风冷、冷板式液冷、浸没式液冷方案的机电部分Capex分别为16000-18000元/ITkW、15000-17000元/ITkW和23000-28000元/ITkW左右。冷板式液冷方案下分摊到每ITkW下的机电部分Capex与风冷方案基本持平甚至更低;浸没式液冷方案所需增加的机电设备较多,平均每ITkW的Capex高出7000-10000元科智咨询测算数据中心运营成本中,用电成本比例超过60%,应用随着技术不断发展,液冷应用于数据中心的技术阻碍逐渐减小。冷板式液冷对IT设备及基础设施环境改动较小,可操作性更强、应用最广泛;浸没式液冷技术要求更高,但可大幅减小湿度、振动、噪音第三章丨中国液冷数据中心市场发展现状分析等对IT设备的影响,有效提升设备使用效率、稳定性与使用寿命。2018年起基础电信运营商组织液冷技术试点,目前头部液冷服务器及逐步加大液冷产品研发力度并加快产品迭代速度,将加速液冷在数据数据中心液冷系统的设计和建设需要考虑复杂部件适配、可靠性等问题,液体冷却介质泄漏对IT设备和环境带来安全风险,需要严格遵守安全标准和规范。现有数据中心的液冷改造也涉及机柜规格、建在风冷模式下,维护的颗粒度较大,容错性也较强。在液冷架构下,任何一个部件发生损坏或者需要维修更换,都将对系统整体产生影响。液冷介质循环、泵的运行和冷却塔维护需要经验丰富的技术人产业链上各个企业技术路径多样,产品规格差异较大,各品牌服务器、冷却液、制冷管路、供配电等产品形态各异。机柜与服务器深度耦合,目前业内尚未建立液冷服务器与机柜统一接口规范标准,不液冷数据中心系统需要考虑良好的可扩展性及兼容性以适应新增第三章丨中国液冷数据中心市场发展现状分析设备和不断增长的散热需求,液冷基础设施设计需与机柜、电源等数据中心其他上游设备产品做适配解决方案。截至目前,在液冷技术及液冷在数据中心的建设方面缺乏相关国家标准的指导与规范,未明确液冷系统在选择、建设和运维过程中需要关注的各项指标、测试方法但目前行业技术标准建设正在加速推进。2023年由信通院、中国写的《冷板式液冷整机柜服务器技术要求和测试方法》行业标准,旨产业链协同强调资源高效整合,关注协同创新和共同价值。液冷数据中心处于发展初期,涉及产业链环节众多、技术难度大,未形成完善的产业生态及产业链协同效应。产业分工不够明确,企业产品及服务交付方式较简单,缺乏资源整合能力强的企业,带来资源配置效液冷技术的实施和维护成本较高。在新建数据中心层面,用户倾向于关注初期建设成本,与传统风冷比较,液冷初期投资高,影响产品的规模应用与推广。液冷系统设备的购买、安装和维护需要大量的按照风冷设计的建筑承重、电力容量系统无法支持高功率密度的部署第三章丨中国液冷数据中心市场发展现状分析方式,液冷改造涉及的环节多、变动大、成本高,出于投入产出及安全可靠性的考量,目前数据中心建设运营主体对液冷的接受程度与应由于缺乏长周期、大规模的液冷部署验证,液冷技术在实际应用中的稳定性和可靠性尚未得到充分验证,使得企业和机构对于液冷数据中心的部署存在疑虑。液冷技术在数据中心的应用仍处于小规模部署阶段,仅少量对散热要求更严苛的高性能计算用户采用液冷方案。此外,冷板式液冷存在漏液隐患,未使用绝缘冷却液的情况下,可能引发风险;浸没式液冷技术,由于缺乏长周期的冷却系统使用效果验中国液冷数据中心市场需求研究目前液冷技术在数据中心的应用尚处于初级阶段,规模化应用主要产生于通用算力中的高密计算领域以及智算、超算。根据科智咨询统计,泛互联网、泛政府、电信行业的液冷部署比例较高,分别达到32%、27%和18.5%。现阶段,行业用户部署液冷数据中心主要面临成本和可靠性问题,且对于大多数用户来说,传统风冷能够满足现有业务散热需要,液冷升,降本增效、节能降耗诉求日益明显,将更加倾向于选择液冷技术方案;电信运营商出于技术示范和政策考虑也将加第四章丨中国液冷数据中心市场需求研究液冷数据中心对于终端用户具有显著价值。通过应用液冷数据中心,用户能够实现高密部署,支持高算力应用场景运行;同时,液冷技术能够有效降低数据中心能耗、噪音,更好支持余热回收,助力企能够节省运营成本,且在浸没式液冷方案下,服务器等关键IT设备隔实际应用过程中,由于风冷替代性、液冷技术可信度、初期投资从液冷数据中心的行业使用程度来看,泛互联网行业以及泛政府行业目前液冷技术应用最为广泛。2022年,中国液冷数据中心市场需以公有云为代表的应用场景具有高密属性,需要采用更为高效的散热方式;另一方面,头部企业在自有数据中心中进行液冷技术探索与验证。泛政府领域需求比例达到27%,主要用于政府主导的超算中心、智算中心以及相关企事业单位的试点项目。电信行业液冷需求占比为18.5%,自2017年,电信运营商即在自有数据中心进行液冷试点,到目前已在全国开展超200个试点项目,并将继续推进大规模试点,提第四章丨中国液冷数据中心市场需求研究行业用户出于高效散热、能耗优化、降低成本以及创新引领等方面考虑,应用液冷数据中心。现阶段,传统风冷能够满足市场上大部分业务场景IT部署要求,液冷方案并非数据中心冷却的唯一选择,行泛互联网行业用户需要采用高效散热的冷却系统保障高计算密度业务运行;寻求更加经济的制冷方案以降低综合成本;同时,头部大厂均提出碳中和目标,节能降耗压力较大,因此积极应用液冷技术。超算单机柜IT负载高,液冷是最优解决方案,部分企事业单位出于创新技术引领考虑进行试点。电信运营商拥有全国三成以上数据中心,且老旧数据中心比例偏大,主要出于降低能耗和技术引领考虑,积极推动液冷规模化应用。金融行业发展至智慧金融阶段,业务发展与AI第四章丨中国液冷数据中心市场需求研究第四章丨中国液冷数据中心市场需求研究液冷技术的规模化部署主要来自泛互联网行业。泛互联网行业数据中心需求规模大,且阿里、腾讯、百度等头部均提出碳中和目标,具有较强的ESG诉求,在同样业务体量下,液冷数据中心能够支撑更心需求规模为27.8MW,较2021年增长70.6%,在头部互联网企业大规从应用场景来看,公有云业务具有高密属性,同时面临较大成本压力,是现阶段液冷技术在泛互联网领域的主要应用场景。在云数据网络设备占比10%。计算密集型服务器主要发热器件为主芯片和内存,通过主芯片冷板和和内存冷板液冷散热可带走60%的热量,适合部署液第四章丨中国液冷数据中心市场需求研究冷。云数据中心机房通常采用大规模模块化机房架构,将一层划分为多个模块化机房,可在同一个大的模块化机房内进行高密计算型液冷微模决、风冷网络和管理微模块、风冷存储型微模块的混合部署。风冷与液冷在一个模块化机房混合部署,能够在实现较低PUE的同时,此外,头部互联网企业出于技术试验和创新发展考虑,布局液冷技术。一方面,头部企业在自建数据中心进行创新技术试点,对液冷技术接触较早;另一方面,新一代IT技术催生海量算力需求,加速算阿里巴巴.2017年,建立互联网行业全球首个浸没式液冷服务器集群.2018年在张北数据中心进行规模化部署,该数据中心单机柜负载为28kW,机柜总量4000架,平均PUE约为1.19.2020年9月,浙江云计算仁和数据中心落地杭州,采用浸没式液冷,整体PUE低至1.09,相比传统风冷每年节电7000万度.2021年12月,发布单相浸没液冷解决方案磐久ImmersionDC1000系列,PUE可达1.092022年,京东在廊坊数据中心大规模部署冷板式液冷,承载京东集团核心业务,该液冷方案能够将80%的发热量由冷板式液冷带热至外部冷却进行集中散热,使IT设备散热效率提升50%,与传统风冷式整机柜相比,在数据中心部28.6%,基础设施能耗节省30%,对应碳排放总量减少10%以上字节跳动2021年以来,在廊坊、山西数据中心进行较大规模液冷部署泛互联网行业企业较早接触液冷技术,对于液冷数据中心接受度较高,同时业务场景具有高密化属性及趋势,目前正逐步尝试进行规第四章丨中国液冷数据中心市场需求研究模化部署,是液冷数据中心商业化、规模化发展的关键驱动力量。此外,国家政策明确提出到2025年智算比例达到35%的建设目标,头部预计未来五年,泛互联网行业液冷数据中心需求规模将达到64%的复合增长率,预计到2027年,泛互联网行业年液冷需求规模将达到第四章丨中国液冷数据中心市场需求研究近年来,泛政府行业液冷数据中心需求保持较快增长,是液冷数据中心需求主要来源。2022年,中国泛政府行业液冷数据中心需求规按照不同主体,泛政府可以划分为政府相关单位及央国企。政府相关单位业务包括政务云、政府公共服务以及智算、超算中心,政务云为政府行权过程中产生的数据,隶属于政务内网,安全性要求高,对于新技术应用相对谨慎;政府公共服务数据,为政府与社会面信息但业务体量较小,计算要求不高,以单个一线城市为例,公共服务业务部署规模在1000机柜以内,单机柜4.4kW即可满足运行要求,未来中短期液冷部署需求有限。央国企自身数据中心需求规模较小,主要用于处理企业内部运行数据和生产数据,部署少量液冷机柜进行技术第四章丨中国液冷数据中心市场需求研究泛政府领域液冷需求主要来自超算和智算领域。近年来随着新一代IT技术、产业数字化转型等多样化算力需求场景不断涌现,超算中心作为国家重要的高性能算力基础设施,建设进程加快,多个超算项目采用液冷作为换热系统,未来搭载液冷系统的超算中心有望成为主2022年国家超级计算深圳中心部署浸没式液冷--2022年天府云数据产业基地项目设计机柜5,000个,采用冷板式液冷、水冷+自然冷却和余热回收等技术项目PUE小于1.25的目标2020年合肥先进计算中心双精度计算峰值12PFlops、整数计算峰值256Pops、数据总存储容量15PB,采用浸没式液冷PUE值1.12020年国家超级计算郑州中心项目配备新一代高性能计算机——“嵩山”超级计算机,理论峰值计算能力100PFlops,存储容量100PB,采用浸没式相变液冷冷却技术PUE值低于1.042020年国家电网宁波北仑数据采用模块化液冷机房部署方式,外置冷却塔系统散热,项目建设机房总容量334U,总功率100kW节省70%的建设时间和土地资源占用,PUE值低于2020年国家超级计算成都中心项目采用浸没式相变液冷技术为超算核心设备提供高效换热--2020年国家超级计算昆山中心总算力400Pflops,拥有CPU+DCU计算单元结构,采用浸没式液冷--智算方面,目前智算产业发展处于初期阶段,各方面发展尚不成熟,各区域政府主导建设智算中心,搭建区域公共普惠算力资源池,在支撑智慧城市高密场景部署的同时,形成对于产业发展的积极引导第四章丨中国液冷数据中心市场需求研究北京数字经济算力中心北京国际大数据交易所--2021.4成都成都智算中心智算云腾(成都)科技有限公司、成都市智算云端大数据有限公司、华为公司、四川华鲲振宇智能科技有限责任公司2021.92022.5长沙长沙人工智能创新中心长沙麓谷城市发展建设有限公司2022.22022.11南京智能计算中心南京市科技创新投资有限责任公司800--2021.7昆山智能计算中心江苏昆山高新技术产业投资发展有限公司500--2021.11天津天津人工智能计算中心天津市河北城市建设投资有限公司3002022.82022.12西安雁塔未来人工智能计算中心西安昇腾智能科技有限公司3002021.9--许昌中原人工智能计算中心许昌市投资集团有限3002021.12021.1沈阳沈阳人工智能计算中心沈阳高新发展投资控股集团有限公司3002021.92022.8大连大连人工智能计算中心大连德泰超算科技有限公司3002021.72022.12福州福建人工智能计算中心福州市电子信息集团有限公司300--2022.12贵安全国一体化算力网络国家(贵州)主枢纽中心贵安产控集团2742021.5--武汉人工智能计算中心武汉光谷爱计算有限2002020.122021.5乌镇之光超算中心(浙江(长三角)新一代全功能智能超算中乌镇之光(桐乡)超算中心有限公司--2021.9廊坊河北人工智能计算中心河北智能计算科技有限公司2022.22023.3宁波人工智能超算中心浙江宁数科创集团有限公司2022.82023.1哈尔滨哈尔滨人工智能先进计算中心哈尔滨合力投资控股有限公司2019.52021.12第四章丨中国液冷数据中心市场需求研究衡阳衡阳市南岳智算--2022.122024.5青岛人工智能计算中心青岛高科产业发展有限公司2022.5--济南济南人工智能计算中心济南科金信息技术有限公司2022.12--江西人工智能计算中心--2022.11--新余新余市新宜吉人工智能智算中心新余市新宜吉合作示范区管理委员会2022.9--预计未来五年,AI应用于交通、安防等智慧城市各细分场景,将产生大量智能计算需求,驱动泛政府领域液冷数据中心部署需求将保第四章丨中国液冷数据中心市场需求研究根据科智咨询,目前基础电信运营商拥有全国三成以上的数据中心资源,早在2017年就开始组织液冷技术验证,在全国范围内自有机房中进行液冷试点。2022年,电信运营商液冷数据中心需求规模达到伴随传统行业数字化转型推进,中小企业上云需求增长,数据安全、供应链安全重要性显著提升,运营商开始发力国资云建设,在2022年头部民企云厂公有云业务个位数增长的情况下,运营商云实现100%以上增长,云数据中心部署需要考虑采用更加绿色高效的制冷方式。此外,2022年,东数西算工程启动,运营商在枢纽节点算力建设过程中担任重要角色,在高密、绿色的建设要求下,液冷成为重要的基础电信运营商是液冷数据中心产业链的下游用户,但同时作为第四章丨中国液冷数据中心市场需求研究拥有大量自有机房的数据中心服务商,在液冷市场发展过程中起到关键作用,提出将采用“技术验证-规模试验-领先标杆”的渐进模式,构建液冷生态链。2017年,基础电信运营商就开始布局前期液冷技术.2020年10月,启用收购5GBBU液冷试点,上线2个液冷机柜,经过长期测试,轻负载率条件下PUE值约1.246,满负载率条件下PUE值约1.15.2018年,在广州安装冷板式液冷微模块(2列服务器机柜)与风冷微模块各1个,液冷微模块PUE约1.2(风冷微模块PUE为1.4).2022年7月,推出全融合液冷微型机柜和5GBBU液冷机柜,采用浸没式液冷技术,通过冷却液循环进行直接散热,降低PUE值至1.1以下,提升节能效率30%以上.2021年6月,德清云数据中心投产,安装冷板式液冷机柜32架,稳定运行至今,制冷效果良好.2021年10月,在郑州开展9台5GBBU设备液冷喷淋测试,配置一套10kW液冷机柜,液冷机柜PUE为1.254,若考虑液冷模式下主设BBU取消风扇的因素,则BBU液冷系统PUE值为1.16.2017年,在呼和浩特组织热管水冷、两级热管和水冷冷板等三种冷板式液冷测试.2019-2021年,在河北、山东组织核心路由器液冷试点,在江苏组织5GBBU浸没式液冷试点,在浙江组织汇聚机房浸没式液冷试点营商液冷技术白皮书》,明确运营商液冷技术发展三年愿景,即2023年开展技术验证;2024年开展规模测试,新建数据中心项目中10%规模试点应用液冷技术,推进产业生态成熟;2025年开展规模应用,50%根据白皮书规划,2023年起,运营商即根据前期液冷技术试点经第四章丨中国液冷数据中心市场需求研究验开展规模试点,如2023年中国移动将在呼和浩特数据中心国家发改委绿色节能示范项目以及智算中心项目中启动液冷规模试点;中国电信2023年计划在京津冀数据中心实施30个液冷服务器机柜试点、在式液冷机柜、并在广州开展1个冷板式液冷服务器试点项目。三大运营商液冷技术应用计划明确,将主要推进冷板式液冷与单相浸没式液冷技术规模化应用,冷板式液冷方面,2023年三大运营商将协同产业测试工作,2024年年中完成规模验证;单相浸没式液冷方面,2023年三大运营商将启动调研交流,争取在年底前形成统一的技术标准,2024年开展系统兼容性、服务器定制、冷却液国产替代等研发与试点电信运营商积极推进液冷技术性能验证,引导行业标准建设,构电信运营商液冷数据中心部署需求将出现大幅提升,应用规模将达到67.7MW,同比增长64.1%,预计到2027年,电信行业第四章丨中国液冷数据中心市场需求研究第四章丨中国液冷数据中心市场需求研究金融行业数据密集,随着与AI、区块链等新兴技术的结合,对算力提出更高要求。根据科智咨询,2022年,中国金融行业液冷数据中心需求规模同比增长52.3%,达到9.4MW,部署规模较小。金融行业对支付、个人信贷、企业信贷、财富管理、资产管理、保险等金融科技领域将快速发展。从智能获客到大数据风控,全链条智能化的技术能力成为个人信贷领域的核心竞争力。智能技术在投资偏好洞察和投资资产匹配环节能够极大降本提效,实现高效、低费、因此,AI技术正在成为金融科技发展的核心支撑,带动液冷技术逐步中国液冷数据中心市场竞争研究现阶段,中国液冷数据中心市场行业用户应用处于试点阶段,但发展前景广阔,已吸引大量企业布局,竞争较为激烈。液冷服务商市场是服务器市场的细分领域,市场进入壁垒较高,竞争主要产生于头部服务器厂商。液冷基础设施市场是新型领域,各企业产品解决方案差异性参差不齐,市场第五章丨中国液冷数据中心市场竞争研究液冷数据中心市场竞争方包括液冷服务器厂商和液冷基础设施服务商。服务器厂商提供液冷服务器产品及解决方案,同时可联合基础设施厂商提供一体化的液冷解决方案,主流厂商包括超聚变、浪潮、宁畅等企业。目前液冷服务器厂商数量较少,市场集中度高,根据科液冷基础设施服务商提供接头、CDU、电磁阀、机柜、manifold等产品零部件,并提供基础设施解决方案,主要企业包括云酷智能、绿色云图、英维克、申菱环境等。液冷基础设施市场企业众多,市场分液冷系统部署关键是其他基础零部件与服务器的适配,服务器厂商在这一环节中占据核心价值点,与基础设施服务商之间竞争与合作并存。在服务器产品方面,双方需要就具体项目需求进行产品适配及耦合,具有紧密合作关系;在一次侧及二次侧的液冷基础设施产品方面,双方在一定程度上存在竞争关系,由于服务器厂商在产业链中具有显著优势,部分服务器厂商联合配套设施提供商参与液冷基础设施第五章丨中国液冷数据中心市场竞争研究液冷系统具有非标属性,市场呈现需求驱动特征,终端用户出于便利性、可靠性考量,倾向于进行一体化采购,将促进产业各方进一步加强合作,配套设施厂商在产业链中的位置逐步向液冷服务器厂商的上游转移,以服务器厂商为主导向液冷数据中心集成商或终端用户液冷服务器市场是服务器行业的细分业务版块,进入壁垒需要从服务器市场进入壁垒高,潜在进入者威胁较小。服务器行业上游核心元器件垄断程度高,下游互联网、电信运营商、金融等行业客户第五章丨中国液冷数据中心市场竞争研究集中度高,上下游企业议价能力较强,服务器厂商需要具备极强的技术能力和成本控制能力,因此技术专利和规模效应形成了服务器市场的主要进入壁垒。此外,服务器是核心IT部件,客户在购买服务器时注重服务商品牌,目前国内服务器领域已形成相对稳定的市场格局,对于服务器厂商来说,进入液冷服务器市场难度较小,伴随液冷数据中心市场发展、终端需求增长,将有更多服务器厂商布局液冷赛液冷基础设施市场涉及较多产品及子系统,存在较高进入壁垒。技术上,液冷数据中心基础设施产品的研发和制造涉及冷却技术、制冷系统设计及仿真技术、温湿度解耦控制算法等多项技术领域,要求企业具备成熟、深入的技术积累。专业人才上,液冷基础设施涉及材料化学、热力学、电子学、计算机科学等多种学科技术成果,且存在定制化特征,对研发技术人员的技术研发能力和行业经验要求较高。客户认证上,现阶段液冷系统未形成成熟规范与标准,企业客户在选液冷冷却方案在数据中心领域尚未规模化应用,关键零部件设计第五章丨中国液冷数据中心市场竞争研究现阶段,液冷数据中心行业客户主要包括头部泛互联网企业、泛政府及基础电信运营商。头部泛互联网企业出于高密业务部署及降本增效考虑,部署液冷数据中心,在进行液冷数据中心采购时,关注采购成本,由于单次部署规模较大且未来具有大规模部署可能性,议价能力强。基础电信运营商在全国部署超过200个液冷数据中心项目试点,并提出到2025年,50%以上数据中心应用液冷技术,是目前及未从市场供需来看,液冷数据中心需求未进入爆发期,预计到2025年,大量高密计算场景落地,智算中心快速发展,液冷需求将快速增散热效率和能耗是长期以来数据中心市场发展面临的重要课题。单机柜功率密度提升,需要采用更加高效的冷却方式,除液冷解决方案外,近年来产业内企业积极尝试新的散热方式,如湖底数据中心、海底数据中心、山洞数据中心等,此类散热方式依靠自然冷源散热,但受到自然条件限制,仅适用于特定场景,难以商业化应用。液冷冷第五章丨中国液冷数据中心市场竞争研究液冷服务器产品具有强定制化特征,需要根据用户液冷数据中心项目部署需求进行设计、生产、安装;同时相比风冷,液冷系统制冷方式发生较大变化,市场上尚未形成成熟的技术规范及标准。因此用户在选择液冷服务器时重点关注厂商技术能力、生态协同能力以及项目经验积累情况。此外,行业客户覆盖能力、品牌影响力、政企资源能力及企业内部业务架构、人员规模也是液冷业务发展的关键影响因1液冷市场份额2022年液冷服务器市场份额,2022年标准液冷服务器及定制液冷服务器市场份额2液冷技术能力液冷技术水平、液冷服务器定制能力、液冷产品丰富度3液冷生态能力液冷配套系统解决方案提供能力,上下游生态协同能力4客户覆盖能力2022年服务器市场份额5品牌影响力品牌知名度,是否积极参与行业标准建设,推进产业高质量发展6政企资源能力政企资源及关键人脉资源7业务组织力是否具有单独的液冷服务器业务线,人员及规模情况根据科智咨询统计,现阶段,国内主流服务器厂商积极布局液冷业务,头部厂商对于液冷服务器技术探索较早,已经积累了一定的商业化经验。基于对各厂商液冷业务发展关键因素的分析,超聚变、浪第五章丨中国液冷数据中心市场竞争研究业务能力方面,超聚变、宁畅具有比较优势,技术水平、生态能浪潮、宁畅已具备较强的资源能力,根据IDC2022年中国液冷服务器销售数据,浪潮、超聚变、宁畅位居前三,市场份额分别为34%、32%和4%,占据了七成左右的市场份额,其中,超聚变在标准液冷服务器领域位居第一;此外,三家头部企业在服务器领域积累了大量存量客户,超聚变深耕运营商、政企领域,浪潮互联网行业客户比例大,伴随液冷技术发展,现有客户液冷服务器部署需求将不断显现。市场份额方面。未来伴随液冷数据中心市场发展,主流液冷服务器厂商也将1、业务能力包含液冷技术能力(40%)、液冷生态能力(30%)、业务组织力(30%);资源能力包含液冷市场份额(30%)、客户覆盖能力(25%)、政企资源第五章丨中国液冷数据中心市场竞争研究超聚变定位于算力基础设施与服务提供者,在液冷方面,推出基于FusionServer系列服务器与FusionPoD液冷原生整机柜服务器的绿色数据中心解决方案。其中,整机柜产品使用机柜“上走电下走水”架构,液冷原生设计,可实现天然可靠性保障,支持100%液冷散热,CPU的高密部署,同时机房免冷机部署,机房空间利用率再提升20%;业界首创液、网、电三总线盲插,机柜内0线缆部署;支持机房向机器人运维演进,同时配套超聚变智能运维管理软件,业务上线效率提目前超聚变已完成170余项可靠性测试,在国内外交付商用液冷根据IDC数据,2022年超聚变液冷服务器出货量位居中国标准液全面推进液冷规模商用和技术创新演进,相关节能技术入选国家工信部《国家工业和信息化领域节能技术装备产品推荐目录》;发布《冷板式液冷可靠性白皮书》;作为主要贡献者参与《数据中心液冷系统技术规程》制定;加入联合国全球契约组织(UNGC深入参与全球算力产业绿色可持续发展,并获颁联合国工业发展组织2023年零碳企第五章丨中国液冷数据中心市场竞争研究服务器FusionServerXH321CV6冷板式液冷散热PUE≤1.05;板级液冷方案,散热比高达80%,PUE≤1.1FusionServerXH321LV5冷板式液冷散热整机柜服务器FusionPoD720冷板式液冷.原生液冷设计,节点无孔铆设计、前后挡水墙、鹰嘴导流槽、三总线盲插,获得TÜV莱茵颁发的防泄漏认证证书浪潮信息定位于数据中心IT基础架构产品、方案和服务提供商,提供服务器、服务器部件、存储、IT终端及散件等产品,服务器产品及服务包括通用服务器、高端服务器、存储服务器和面向云数据中心基础架构的产品及解决方案,重点发展整机柜、超密度等各类形态的发布液冷通用服务器、液冷高密度服务器、液冷整机柜服务器、AI液冷服务器等液冷产品,服务通用、高算力密度、AI模型训练等多样化场景;同时,建设液冷数据中心研发生产基地“天池”,交付冷板式第五章丨中国液冷数据中心市场竞争研究液冷通用服务器NF5280M6冷板式液冷功耗270WNF5260M6冷板式液冷命,运维便捷液冷高密度服务器i24LM6冷板式直接芯片液冷液冷整机柜服务器ORS3000S冷板式液冷电,保障高效供电效率液冷AI服务器NF5688M6冷板式液冷PCle扩展槽宁畅定位于服务器厂商及IT系统解决方案提供商,提供基于X86架构通用机架、人工智能、多节点、边缘计算及JDM全生命周期定制宁畅当前拥有冷板式液冷、闭式液冷散热、浸没式液冷等多种液HGXA100NVLink平台,推出X660G45LP新系列液冷服务器;2022年宁畅入选工信部《数字经济赋能绿色转型案例集》中的B5000G4LPG50系列服务器产品,覆盖通用服务器、人工智能服务器、多节点服务器、边缘服务器等全线产品,同时首发支持第四代Intel至强可扩展第五章丨中国液冷数据中心市场竞争研究通用液冷服务器R620G50LP冷板式液冷55℃.液冷散热超80%,PUE<1.15,本可达千万R620G40LP冷板式液冷11.2GT/s高温液体有效降低能耗多节点液冷服务器B5000G5LP高效冷板式液冷算节点B5000LPG4高效冷板式液冷算节点AI液冷服务器X660G45LP冷板式液冷液冷GPU2*270WTDP8*500WTDP新华三基于计算、存储、网络、5G、安全、终端等数字化基础设施能力,提供数字化解决方案。在液冷领域,新华三布局较早。2017年,新华三开始在R4900G2机架服务器、B16000刀片板预研,当时单节点功耗较风冷降低49.85W,CPU温度降低23C(235WR4900LCG5液冷服务器,整合冷板式液冷技术,可支持NVIDIAA100第五章丨中国液冷数据中心市场竞争研究通用液冷服务器R4900LCG5冷板式液冷S30000LE浸没式液冷9.2kW联想定位于企业数字化和智能化解决方案提供商,其算力基础设施业务目前已布局风冷混合、全液冷、全柜式液冷、单相浸没式等主浸没式液冷节点等领域。其高密度服务器SD650系列能够支持液冷技术,可散除机架中服务器生成的90%的热量,使处理器工作温度比通常训练服务器,预留了液冷冷板设计,支持HGX模块的液冷版和CPU的液冷在,能够在后期技术升级过程中降低改造成本。此外,联想将继中兴通讯作为综合性通信解决方案提供商,布局ICT液冷一体化解决方案。当前主要基于冷板式液冷技术,形成单板级、插箱级、机柜级、机房级四个不同维度的液冷技术线,主要覆盖IT液冷服务器设备、CT液冷路由交换设备、DC液冷数据中心机房的开发与交付。2023第五章丨中国液冷数据中心市场竞争研究PUE指标可达1.1。此外,中兴通讯IntelWhitley平第五章丨中国液冷数据中心市场竞争研究液冷基础设施市场竞争较为激烈,液冷基础设施市场存在较高进入壁垒,先进入企业在实践中进行技术调优,积累服务经验和客户资源,具有先发优势。现阶段市场上主要厂商包括曙光数创、英维克、申菱环境、同飞股份等企业,厂商各有技术及产品侧重,现阶段竞争曙光数创背靠中科曙光,聚焦浸没式液冷领域,具有较强的市场竞争力,其提供的硅立方相变液冷计算机整体产品力较强,集成度较高,散热效果有较大幅度提升,目前发布的第二代硅立方支持的计算密度实现数量级提升,PUE达到1.04,节能属性处于市场领先水平。英维克、申菱环境、同飞股份等企业在温控领域深耕多年,积累了较高的品牌知名度,随着液冷技术发展,布局液冷产品线。云酷智能提供浸没式液冷整体解决方案,自研冷却液,和电信运营商进行深度合作,开展浸没式项目试点。绿色云图和安徽星载目前的液冷产品和解决方案主要应用于自有数据中心,进行技术测试,打造示范项目。纯第五章丨中国液冷数据中心市场竞争研究均基于冷却液技术及研发能力,提供液冷基础设施,已形成一定的市场知名度。科华数据基于UPS和智慧运维业务,在数据中心行业深耕多年,对于数据中心系统架构具有较深理解,目前正在积极推进液冷中国液冷数据中心市场发展趋势与根据科智咨询预测,未来五年,中国液冷数据中心市场仍将保持高速增长。传统的通用算力场景单机柜功率密度将在较长一段时间内低于20kW,风冷能够满足其散热要求,液冷应用需求或将首先爆发于智算领域。液冷应用是市场发展必然趋势,但增长临界点的到来在较大程度上受到产业生态建设进程的影响,相关部门、行业机构、产业链企业应加强合作,协同推动市场标准建设及生态完善,逐步推进液冷的技第六章丨中国液冷数据中心市场发展趋势经过2022年诸多领域液冷数据中心项目试点,互联网、泛政府、电信等行业领域对液冷冷却的需求更加旺盛。此外,大量智算中心建设推进带来新的液冷需求,2022年底,ChatGPT产品发布,带动AIGC发展,头部泛互联网企业及其他行业头部企业均积极布局AI大模型,单机柜功率密度超过30kW,传统风冷方案难以满足大规模散热需求,液冷是最优解决方案。根据科智咨询,2023年中国液冷数据中心市场未来,伴随成熟液冷项目落地,产业链上下游企业积攒更多行业经验,并将成功经验迁移至其他应用领域,以及AI大模型和5G的加产业生态成熟是液冷市场爆发性增长的重要节点。从液冷产业来看,产业发展的关键在于液冷系统与数据中心其他设备的耦合,需要形成全面、深入的行业标准,建设完善的产业生态体系。现阶段,众多液冷生态链厂商及服务供应商正在积极推动行业标准化,打造液冷生态基于市场需求发展及产业生态建设进程,未来五年中国液冷数据中心市场将以59%的复合增长率持续发展。预计到2027年,AI大模型商用落地,液冷生态趋于成熟,市场规模将出现较大幅度增长,有望第六章丨中国液冷数据中心市场发展趋势注:液冷数据中心市场规模统计维度包括液冷服务器和液冷数据中心配套基础设施根据科智咨询预测,未来五年,冷板式液冷数据中心仍将是市场应用主流,市场规模保持50%以上增长。冷板式液冷的成本优势及系统的多样性、便利性是用户选择采用冷板式液冷方案的主要因素,随着中国冷板式液冷数据中心市场规模将达到903.2亿元,五年复合增长第六章丨中国液冷数据中心市场发展趋势浸没式液冷数据中心市场也将持续发展,浸没式液冷商业化应用主要面临成本和可靠性问题,目前国内厂商积极发力冷却液市场,开展兼容性及可靠性测试,有望解决商业化难题。随着芯片功率和单机柜密度的持续提升,以及规模试点项目取得进展,浸没式液冷将凭借科智咨询预计2023年中国液冷服务器市场规模将保持51.7%的快从技术方向上看,冷板式服务器仍将贡献大部分份额。除新建通第六章丨中国液冷数据中心市场发展趋势用数据中心、智算中心倾向于采用冷板式液冷外,传统数据中心改造也是重要的业务增量。在政策及用户需求的共同影响下,部分老旧及PUE不达标的数据中心机房面临改造、腾退等问题,北上广深一线城市数据中心价值度高,期望通过液冷改造解决能耗问题,冷板式液冷方从用户需求来看,泛互联网企业业务集聚大量高算力密度应用场景,同时具有技术前瞻和降本增效驱动,是液冷服务器主要需求方,并有望在未来几年持续加大液冷服务器采购力度;电信运营商明确提出到2025年达成50%的液冷数据中心部署比例,将成为市场增长重要从液冷服务器厂商来看,伴随液冷逐步成为数据中心制冷重要解决方案,各服务器厂商持

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论