液冷行业市场前景及投资研究报告:培训课件_第1页
液冷行业市场前景及投资研究报告:培训课件_第2页
液冷行业市场前景及投资研究报告:培训课件_第3页
液冷行业市场前景及投资研究报告:培训课件_第4页
液冷行业市场前景及投资研究报告:培训课件_第5页
已阅读5页,还剩16页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

%%%%液冷行业科普报告2025-08-18%%1%%%%%•证券研究报告

•评级看好首次分析师及联系人分析师

于海宁分析师

温筱婷SAC执业证书编号:S0490517110002SFC执业证书编号:BUX641SAC执业证书编号:S04905241000022%%%%IDC温控概览:液冷升级在于室内侧温控模式基本构成➢

数据中心作为持续的产热大户,高效且稳定的散热系统是重要的配套设施。➢

根据冷却介质不同,数据中心冷却方式分为风冷和液冷。相比传统风冷,液冷技术具备更高的散热效率、低能耗、低TCO、低噪声和低占地面积等显著优势,是现阶段及未来长期内电子设备解决散热压力、应对节能挑战的重要途径。➢

液冷升级在于机房侧,服务器与机房内散热方式强绑定。室外侧通过水冷散热的方式已应用较为广泛,以冷冻水方案最为典型。目前,我们所说的液冷主要指的是机房侧的升级,即服务器内和机房内的散热方案升级,室外侧整体变动不大。➢

液冷方案可分为冷板式、喷淋式和浸没式三种,其中浸没式又可进一步划分为单相浸没式和双相浸没式两种。液冷技术架构示意图(以数据中心为例)间接冷却直接冷却非相变相变冷板式液冷喷淋式液冷浸没式资料:《数据中心液冷技术应用研究进展》肖新文,研究所%%3%%%%%驱动力1:AI推动功耗快速提升,逼近风冷散热极限海外AI整机柜功耗持续提升➢

芯片功耗密度持续提升,GPU功耗较CPU显著更高。根据Vertiv数据,风冷芯片解热上限为TDP<1000W。➢

高功耗服务器带动单机柜功率密度提升,已突破传统风冷散热上限。伴随高功耗AI服务器的上架,为在满足功耗要求的基础上提高机房的空间利用率,高功率机柜或将同步增长。自然风冷的数据中心单柜密度一般只支持8-10kw,冷热风道隔离的微模块加水冷空调水平制冷在15kw以上性价比将大幅降低,传统风冷技术一般在单机柜20kw达到上限。主流CPU与GPU功耗对比芯片型号至强D-2700系列至强W-3300系列至强Max系列第5代至强可扩展处理器系列EPYC

7002系列EPYC

7003系列EPYC

9004系列V100类型CPUCPUCPUCPUCPUCPUCPUGPUGPUGPUGPUGPUGPUGPUGPUGPU厂家英特尔英特尔英特尔英特尔AMDTDP96W~126W220W~270W350W单机柜密度和冷却方式385W120W-280W155W-280W200W-360W250W/350W300WAMDAMD英伟达英伟达英伟达英伟达英伟达英伟达英伟达AMDL40A100300W/400W300W-350W/700W700WH100H200B100700WB2001000W/1200W560WInstinct

MI250XInstinct

MI250AMD560W资料:Intel,AMD,英伟达,Vertiv,赛迪顾问,研究所4%%%%驱动力2:政策严控PUE,更高效的散热方案是关键➢

PUE(总功耗/IT设备功耗)是表征数据中心能耗的核心指标,温控系统是降低PUE的关键。➢

从当前实际情况来看,实地运行的数据中心PUE较政策要求仍有较大差距,若想严格达成政策目标,液冷迫在眉睫。➢

最新国家要求:到2025年底,平均PUE降至1.5以下,新建及改扩建大型和超大型数据中心PUE降至1.25以内,国家枢纽节点数据中心项目PUE不得高于1.2。➢

传统风冷方案的数据中心PUE一般在1.5左右,风冷的PUE极限在1.3左右,冷板式液冷最低能做到1.1,浸没式液冷能接近1.0。数据中心建设成本拆分各等级PUE的能耗分布柴油发电机组电力用户站UPS1%7%1%0.50%100%80%60%40%20%0%3%5%4%4%6%17.50%23%26%3%7%38%配电柜冷水机组精密空调冷却塔机柜77%67%8%52%20%8%列头柜静电地板PUE=1.92PUE=1.5PUE=1.318%IT设备空调系统电源系统照明系统2022年数据中心实际PUE与政策要求PUE差异“东数西算”区域平均PUE值1.681.71.61.51.41.31.21.111.701.651.601.551.501.451.401.351.661.661.571.31.561.561.481.481.31.251.2全国北京上海广东政策要求数据中心PUE现阶段数据中心运行PUE京津冀长三角大湾区成渝地区资料:艾瑞咨询,中数智慧信息技术研究院,科智咨询,中央人民政府,研究所%%5%%%%%驱动力3:全生命周期成本更低,长期经济性显著➢

从整个TCO分析来看,仅考虑机房侧基础设施配套建设,在单机柜30kw的项目基础上,冷板式液冷TCO具备绝对优势;单相浸没式液冷若采用国产优质氟化液,TCO与风冷也能够实现基本持平。CAPEX分析:冷板式液冷的机电+土建+外电+能评的总支出较风冷显著更低风冷(元/ITkW)16000-180005000板冷(元/ITkW)15000-170003000单相浸没(元/ITkW)23000-280003500机电土建外电+能评400020002000机电+土建+外电+能评25000-2700020000-2200028500-33500OPEX分析:由于液冷方案的PUE较风冷显著更低,因此两种液冷方案在运营成本上优势均很明显风冷(元/ITkW/月)板冷(元/ITkW/月)单相浸没(元/ITkW/月)OPEX(含水费、电费)780-810670-700650-680TCO分析风冷(元/ITkW/月)417-451板冷(元/ITkW/月)358-386单相浸没(元/ITkW/月)496-581CAPEXOPEXTCO780-810670-700650-6801197-12611028-10861146-1261资料:北京奕信通,研究所6%%%%冷板式不改变用户使用习惯,产业链较为成熟➢

冷板式为当前以及短期内的主流方案,喷淋式路线及其小众。➢

浸没式短期内仍难以渗透的原因:(1)对用户习惯改变较大;(2)价格高昂,主要是其中的冷却液;(3)环保和毒性争议。浸没式液冷方案示例冷板式液冷方案示例资料:《电信运营商液冷技术白皮书》,研究所%%7%%%%%冷板式液冷VS风冷具体拆解图➢

服务器侧,使用液冷板代替热管/均热板/3D-VC,同时减少风扇使用量。➢

机房侧,使用包含CDU、manifold、快速接头等组件在内的串联系统代替绝大部分精密空调,进行室内侧和室外侧的换热。➢

注:冷板式液冷方案中一般仍有20%-30%左右的热量需要通过风冷带走。室外侧室内侧室外侧传统风冷冷板式液冷机房侧服务器侧机房侧资料:研究所8%%%%产品环节零碎,但液冷耦合程度远高于风冷➢

冷板式液冷全链条产品有:液冷板-快速接头-液冷管路-液冷CDU-冷源-液冷机柜-漏液检测-液冷工质-液冷智能监控平台,环节数显著多于风冷。➢

全方案价值量大致拆分:液冷板(约30%)+CDU(约30%)+Manifold(约10%-20%)+快速接头(10%)+冷却塔等室外侧(约10%)+其他资料:英维克,研究所%%9%%%%%国内液冷市场规模:预计26年达到70-80亿元➢国内,考虑昇腾芯片出货、通用服务器出货以及部分NV卡出货上液冷,预计国内液冷市场规模2025年约40-50亿元,2026年约70-80亿元。昇腾液冷市场规模测算2023E

2024E

2025E

2026E中国通用服务器液冷市场规模测算2023E4122024E4122025E4122026E41250.620%5344.3658.1708.8通用服务器出货量(万台)单服务器功耗昇腾训练芯片出货量(万颗)昇腾训练服务器出货量(万台)液冷渗透率0.50.80.813%5%8%10%510680%596720%527860%5.180%7.790%15.7液冷渗透率/kw)733480%1420620%8708623480%994420%6976561180%745820%5980单台服务器功耗(kw)冷板式液冷单价(元冷板式液冷占液冷比例/kw单台服务器散热价值量(元)

10000

10147

12692

17857浸没式液冷单价(元)单kw机房侧散热价值量(元)

250025002.163.525.6725008.25250014.0630.94浸没式液冷占液冷比例/kw服务器散热市场空间(亿元)机房侧市场空间(亿元)合计市场空间(亿元)0.130.160.28液冷方案平均单价(元)12.50通用服务器液冷市场规模(亿元)5.411.515.821.720.75

45.00注1:为简化计算昇腾液冷空间,进行了一定的假设。1)假设23年批量出货的初代芯片单冷板价值量为800元/个,后续伴随芯片升级单板价值量有所提升;2)机房侧不包含室外侧环节,按照2500元/kw测算;3)液冷渗透率假设伴随新一代芯片出货而逐年提升。资料:研究所10%%%%NV液冷空间测算:26年对应93-114亿美元市场GB200

NVL72单柜液冷价值量GB300

NVL72➢⚫⚫单柜价值量单柜液冷价值量GB200

NVL72约7-9万美金GB300

NVL72约10-12万美金液冷板液冷板Compute冷板单价(美元)Compute冷板数量(个/rack)Switch冷板单价(美元)Switch冷板数量(个/rack)冷板价值量(美元)45036Compute冷板单价(美元)300108Compute冷板数量(个/rack)20018SwitchSwitch200冷板单价(美元)/rack➢市场空间测算冷板数量(个)18⚫

2025E:假设出货3w个GB200

NVL72、0.9w个GB300

NVL72,对应30-38亿美金规模(216-270亿元)。1980036000冷板价值量(美元)CDU

kwCDU(参考Vertiv

SuperPod架构折算)单rack价值量(美元)若采用一主一备对应单rack价值量(美元)Manifold(按照单

价值量不变估算)1875037500单rack价值量(美元)若采用一主一备对应单Manifold2156343125⚫2026E:假设出货1w个GB200

NVL72、9w个GB300

NVL72,对应93-114亿美金规模(670-823亿元)。rack价值量(美元)Manifold单价(美元)125001Manifold单价(美元)125001Manifold数量(套/rack)Manifold价值量(美元)快速接头Manifold数量(套/rack)Manifold价值量(美元)快速接头⚫注:右侧价值量测算有部分环节参考外资品牌单价,国内厂商单价应打折扣。1250012500UQD单价(美金/对)1306UQD单价(美金/对)80142025E662026E24830690yoy单个compute

tray快速接头数量(对)单个switch

tray快速接头数量(对)单rack快速接头数量(对)快速接头单rack价值量(美元)软管单个单个compute

tray快速接头数量(对)switch

tray快速接头数量(对)液冷板CDU275%181%156%207%156%205%2210935rack快速接头数量(对)2702160012616380单rack价值量(美元)Manifold快速接头软管快速接头单软管4915227单价(美元/米)21/米)21单价(美元长度(米)11180180长度(米)合计270823软管单rack价值量(美元)单rack液冷价值量(美元)378071210软管单rack价值量(美元)378095443单rack液冷价值量(美元)注:此处CDU市场空间按照顶配一主一备方案测算考虑CDU一主一备对应单rack价值量(美元)

89960CDU一主一备对应单rack价值量(美元)

117005考虑资料:研究所%%11%%%%%ASIC液冷空间测算:26年中性对应26亿美元市场➢

ASIC液冷产品⚫

Meta:MTIA

1代产品即开始上液冷⚫

Google:TPU

V6e推理芯片开始出液冷架构,v7大概率是液冷⚫

AWS:Trainium3开始出液冷架构⚫

Microsoft:自研芯片进程较慢,但在构建液冷团队,趋势明确➢市场空间测算⚫

MetaMinerva架构散热价值量为4w美金/柜,对应单卡价值量1250美金,假设ASIC单卡液冷价值量与Meta一致⚫保守测算对应15亿美金市场(106亿元),中性测算对应26亿美金市场(184亿元),乐观测算对应43亿美金市场(309亿元)。液冷渗透率ASIC出货(万颗)Meta保守中性乐观504010MTIA1MTIA1.5GoogleV5100%100%100%100%100%100%270115140150%10%100%0%35%100%0%70%100%V6V7AWSTRN2TRN3其他250120130500%30%0%125014.81060%50%50%125025.51840%100%100%125042.9注:为简化计算液冷空间,进行了一定的假设。1)出液冷架构的芯片代际保守、中性、乐观的渗透率假设为0%、50%、100%;2)ASIC出货仅为我们初步假设,不代表最终出货情况。单卡价值量(美元)市场规模(亿美元)市场规模(亿元)309资料:研究所12%%%%液冷数据中心产业链投资机会梳理➢液冷板:价值量占比约30%,伴随功耗提升有升级逻辑,同步带来价值量提升,大逻辑是。当前服务器内散热供应商以台资厂商为主,液冷打开国内厂商验证窗口期,尤其是昇腾系。该细分部分逻辑较好,但对国内厂商来说业绩兑现慢于机房侧产品。➢➢➢CDU、Manifold等机房侧产品:价值量占比较大,整体约50%。机房侧具备较强的本地部署和运维特征,以国内厂商为主,率先兑现业绩。部件级/代工链:价值量占比相对较小,但若能通过进入NV一级液冷供应商的供应商名录,则有望率先兑现业绩,重点关注泵、阀等部件。浸没式冷却液:是浸没式方案单价下降的核心,大逻辑是。当前浸没式冷却液以海外供应商为主,单价约为国内厂商的两倍,氟化液的或更换为有机硅油类冷却液是浸没式液冷方案价格下降的关键。资料:研究所%%13%%%%%液冷板:大逻辑为,先发极为重要➢

液冷板需要重资产投入(产线+测试设备),一般只有老牌散热大厂才有资金实力投入。➢

为保证产品一致性,服务器厂商一般只选择2-3家冷板供应商,进入名录后没有大事故就会持续供应。➢

格局:无论是国内还是海外,目前都仍以台厂为主,主要包括奇鋐(AVC)、双鸿(Auras)、Cooler

Master;国内液冷板做的比较好的玩家还有英维克、飞荣达、中航光电、立讯精密等,目前国内大逻辑为。➢

配比:一般为单芯片对应一块冷板。➢

谁决定供应商?——(1)链:HW决定;(2)NV链:先进NV短名单,其次由服务器厂/CSP厂从中选定;(3)通用:服务器厂。➢

后续升级方向:(1)微通道设计优化;(2)轻量化;(3)单相冷板→双相冷板。液冷板实物图液冷板内部微通道结构示意图资料:《绿色数据中心创新实践——冷板液冷系统设计参考》,Chilldyne,研究所14%%%%CDU:国内厂商率先兑现业绩环节➢

CDU为基础设施型产品,使用寿命多为10-20年,产品可靠性和服务兜底能力是客户选供应商的重要参考。➢➢分类:(1)InrackCDU(机架式)、InrowCDU(机柜式);(2)风液式(L2A)、液液式(L2L)格局:目前还是多以机柜式CDU为主,存在本地安装及运维特征,因此国内项目基本均以国内厂商为主,国内玩家主要有英维克、比赫电气(非上市)、申菱环境、高澜股份、曙光数创等。海外以Vertiv为主(收购CoolTera),其他厂商还有CoolIT、Motivair等。➢➢➢配比:机柜式CDU一个柜子配一个;机架式CDU看具体布局方式,一个CDU牵引多个机柜,一般CDU需一主一备。谁决定供应商?——项目制。in

rack

CDU多由服务器厂商决定(HW链较为特殊,由HW决定),inrowCDU多由IDC总包商决定,终端客户也有话语权。后续升级方向:方案设计优化,用更少的部件实现更高的散热能力。机架式CDU示意图机柜式CDU示意图资料:研究所%%15%%%%%快速接头:海外以欧美厂商为主,国内多用中航产品➢

全球维度下,快接前暂无类似冷却塔的CTI认证,在海外OCP认证认可度相对较高,但影响力有限,国内目前不太参考此认证。➢

跨品牌适配是目前快接头的核心问题,Intel倡议的UQD标准暂时统一了规格,但是在跨品牌适配上仍需时间推进。➢

格局:海外目前的供应商多为欧美厂商,包括美国的Parker、CPC、瑞士的Staubli、丹麦的Danfoss及瑞典的CEJN;国内使用较多的快接头品牌是中航光电和Staubli。目前,海外认可度较高的国内品牌有中航光电、英维克、比赫电气。➢

配比:配比与服务器的设计有关,一个服务器至少需要两对(一对进冷水,一对出热水),AI服务器也可能会按卡配置(即一卡配两对),更高端的全液冷服务器可能还需更多额外接头。➢

谁决定供应商?——跨品牌适配较难,目前单项目多采用单供应商,客户决定:(1)短名单;(2)要求采用和服务器上的同款接头➢

后续升级方向:(1)低流阻;(2)提高标准程度;(3)手插→盲插。快速接头位置示意图快速接头实物图单卡配两对接头的服务器资料:研究所16%%%%NV链液冷供应商梳理➢

流程:1)送样NV,需要首先进入NV的Vendor

list,获得供应商资格;2)大多数产品是服务器厂和终端客户在Vendor

list中选择供应商。➢

NV决定了部分产品入场券的分发,最终决定权在实际采购方和终端客户手上。服务器厂/终端客户选定Cooler

Master、AVC、Auras等液冷板机房总包商/终端客户选定服务器厂/终端客户选定Vertiv、CoolIT、施耐德等Delta、Nidec、Motivair等CDUIn

rowIn

rack快速接头服务器厂/终端客户选定CPC、Staubli、Parker、Danfoss等Manifold/Cooler

Master

Auras等服务器厂

终端客户选定、资料:研究所%%17%%%%%各环节A股相关标的梳理➢

液冷板:英维克、飞荣达、中航光电、立讯精密、思泉新材、科创新源、硕贝德、中石科技、捷邦科技、祥鑫科技、精研科技。➢

CDU、Manifold等:英维克、申菱环境、高澜股份、曙光数创

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论