机械行业AIDC系列深度报告一:技术迭代加快液冷放量元年_第1页
机械行业AIDC系列深度报告一:技术迭代加快液冷放量元年_第2页
机械行业AIDC系列深度报告一:技术迭代加快液冷放量元年_第3页
机械行业AIDC系列深度报告一:技术迭代加快液冷放量元年_第4页
机械行业AIDC系列深度报告一:技术迭代加快液冷放量元年_第5页
已阅读5页,还剩24页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

目 录一、液冷是高效散解方案,AIDC建设推动求景气 6(一)数中蓬发,AI推智中需求 6(二)芯性快提,液逐成主散方案 71、力片率增冷从可选变为刚” 82、策向紧液实现色碳关路径 103、体有本备,液技符行发趋势 (三)AI驱下需长,冷力大 13二、算力升级突破冷限,液冷技术脱颖出 14(一)传风面散瓶颈液方日完善 14(二)冷式冷业成熟占当市主流 151、术径晰多件协运行 152、相相有重相冷技效更高 17(三)浸式冷破理极,致PUE配算 171、接触露角致能低PUE 172、相变能为,机由式立演优化 183、却决性,和氟液当主流 19(四)喷式冷现准散,液消兼效能 20(五)新液技持演进软协应极热 21(六)多技方齐并进冷式率放量 22三、投资建议 23(一)英克技领的精温节解方与产提商 23(二)申环:备直一化控决案专用种调应商 26(三)同股:焦业温技创和业发展高技企业 28四、风险提示 31图表目录图表1 据心造服务机内示图 6图表2 国据心场规模 7图表3 国据心准机数 7图表4 国能力模及测 7图表5 据心造本构成 8图表6 气水热力比较 8图表7 柜率度制冷式 9图表8 同片构应参表 9图表9 同格务架构应数表 10图表10 数中心PUE限制策 10图表数中不热技应PUE 图表12 不散方瓦特均本出比 12图表13 典数中耗占比 12图表14 不散方年冷功及费比 12图表15 液与冷TCO13图表16 微液方案 13图表17 冷案 13图表18 北头云商资开(美) 14图表19 数中冷术分类 15图表20 冷式冷原理图 15图表21 冷式冷部件分图 16图表22 采冷式方案服器盘 17图表23 单冷式系统构图 17图表24 两冷式系统构图 17图表25 采浸式技术服器 18图表26 单浸式系统构(式) 19图表27 单浸式系统构(式) 19图表28 两浸式系统构(式) 19图表29 两浸式系统构(式) 19图表30 冷液类 20图表31 浸式冷液主类与性较 20图表32 喷式冷原理意图 21图表33 微道冷结构意图 21图表34 微道热同横面意图 22图表35 各冷术对比 23图表36 英克务局 23图表37 数中液展历程 24图表38 英克业入 24图表39 英克务构 24图表40 英克母润 25图表41 英克利净利率 25图表42 Coolinside全条解方示图 25图表43 全景控图 25图表44 英克分中心户 26图表45 英克英达成作 26图表46 申环主务应领域 26图表47 申环主务产种类 26图表48 申环营入 27图表49 申环业构 27图表50 申环归利润 27图表51 申环毛和净率 27图表52 申环液业发历程 28图表53 同股业局 29图表54 同股数心液发历程 29图表55 同股营入 30图表56 同股业构 30图表57 同股归利润 30图表58 同股毛和净率 30图表59 同股全温控品意图 31一、液冷是高效散热解决方案,AIDC建设推动需求景气(一)数据中心蓬勃发展,AI推动智算中心需求迈入数字社会,数据中心成为核心基础设施ITIT路UPSPDU等以图表1 数据中心构造服务器机房内部示图程控股《数据中心行业投资与价值洞察》互联网技术深入应用,数据中心产业市场规模持续高速增长。得益于云计算、人工智能和边缘计算的快速普及,全球数据中心市场规模正以极快的速度扩张。根据中商产业研52024277320253180亿元,2020~2025CAGR22.2%20249002024图表2 我国数据中心场规模 图表3 我国数据中心准机架数我国数据中心市场规模(亿元) YoY 数据中心标准机架数(万架) YoY3500300025002000150010005000

2020 2021 2022 2023 2024

30%25%20%15%10%5%0%

10009008007006005004003002001000

2019 2020 2021 2022 2023

35%30%25%20%15%10%5%0%

商产业研究院《2025年中国数据中心行业市场前景

(2024年

信部、转引自国家数据局《数字中国发展报告AI训AIIDC5年CAGRIDC40%20282781.9EFLOPS。图表4智能算力(基于FP16智能算力(基于FP16计算,EFLOPS)YoY2500 100%2000 80%1500 60%1000 40%500 20%02020

2021

2022

2023

2024

2025

0%2026E 2027E 2028EDC、转引自IDC&浪潮信息《2025年中国人工智能计算力发展评估报告(二)芯片性能快速提升,液冷逐步成为主流散热方案数据中心建设如火如荼,基础设施需求兴起。202441(1ZB=1新的挑战。一方面,在通算中心向智算中心转型发展的行业背景下,芯片和机架的功率密度急剧攀升;另一方面,国家双碳战略逐步推进,对数据中心的能效要求不断收紧。数据中心散热能力与冷却系统紧密相关,据DgtlInfra数据,冷却系统占数据中心初始投资约15%~20%,其对于数据中心的稳定性和持续经营能力有着极大的影响,如何选择高效的散热系统始终是数据中心建设的关键议题。图表5 数据中心建造本构成冷却系统,20%冷却系统,20%土地和建筑外壳,20%建筑装配,20%电子系统,40%gtlInfra《how-much-does-it-cost-to-build-a-data-center介质物理属性存在明显差异,液冷散热效率提升明显。(CPU、2343000图表6特点空气水25℃下的热导率(W/(mK))0.0260.6089密度(kg/m3)1.29(1atm,0℃)1000(4℃)比热容(kJ/(kgK))1.0044.2单位体积热容量(kJ/(m3K))1.34200比较基准3243耐德电气《适用于数据中心和边缘应用的液冷技术(第265号白皮书)1、算力芯片功率激增,液冷从可选变为刚需风冷散热能力有限,液冷可用于更高功率密度区间。15~20kW20kWAI图表7 机柜功率密度制冷方式兴通讯液冷技术白皮书》H100H200GPUAmpere架构的A10075%HooperAIGH2001CPU+GPU1000W,较同系列H100H20043%Blackwell1颗CPUGPU组成的AIGB200TPU2700W。20261RubinBlackwell图表8 不同芯片架构应参数表架构A100H100H200GH200B100B200FullB200GB200AmpereHooperBlackwell显存大小80GB80GB141GB96/144GB180/192GB180/192GB192GB384GB显存宽带2TB/s3.35TB/s4.8TB/s4/4.9TB/s8TB/s8TB/s8TB/s16TB/sFP16稠密算力(FLOPS)312T1P1P1P1.75P2.25P2.5P5PINT8稠密算力(OPS)624T2P2P2P3.5P4.5P5P10PFP8稠密算力(FLOPS)X2P2P2P3.5P4.5P5P10PFP6稠密算力(FLOPS)XXXX3.5P4.5P5P10PFP4稠密算力(FLOPS)XXXX7P9P10P20PNVLink宽带600GB/s900GB/s900GB/s900GB/s1.8TB/s1.8TB/s1.8TB/s3.6TB/s功耗400W700W700W1000W700W1000W1200W2700W备注1个Die1个Die1个Die1Grace1H200GPU2个Die2个Die2个Die1颗GraceCPU2BlackwellGPU谛技术《智算中心基础设施演进白皮书AIDC机柜级8CPU8颗CPUNVL3672Blackwell架构旗HGX200GPU8kW14.3kWGB200芯NVL72120kWAI算力Rubin图表9 不同规格服务架构对应参数表架构HGXA100HGXH100HGXH200HGXB100HGXB2008xA100SXM8xH100SXM8xH200SXM8xB100SXM8xB200SXMAmpereHopperBlackwell显存大小640GB1.1TB1.1TB1.44/1.5TB1.44/1.5TB显存宽带8×2TB/s8×3.35TB/s8×4.8TB/s8×8TB/s8×8TB/sFP16稠密算力(FLOPS)2.4P8P8P14P18PINT8稠密算力(OPS)4.8P16P16P28P36PFP8稠密算力(FLOPS)X16P16P28P36PFP6稠密算力(FLOPS)XXX28P36PFP4稠密算力(FLOPS)XXX56P72PGPU-to-GPU宽带600GB/s900GB/s900GB/s1.8TB/s1.8TB/sNVLink宽带4.8TB/s7.2TB/s7.2TB/s14.4TB/s14.4TB/s以太网网络200Gb/s400Gb/s+200Gb/s400Gb/s+200Gb/s2×400Gb/s2×400Gb/sIB网络8×200Gb/s8×400Gb/s8×400Gb/s8×400Gb/s8×400Gb/sGPU功耗3.2kW5.6kW5.6kW5.6kW8kW总功耗6.5kW10.2kW10.2kW10.2kW14.3kW备注ConnectX-6NICConnectX-7NICConnectX-7NICBlueField-3DPUConnectX-7NICBlueField-3DPUConnectX-7NIC谛技术《智算中心基础设施演进白皮书2、政策导向收紧,液冷是实现绿色低碳的关键路径PUE要求趋严,数据中心需增强散热能力。随着我国持续推进双碳目标,中央和地方政府对数据中心的电能利用效率(PUE)要求也越发严格。PUE是数据中心耗能与IT设备耗能的比值,比值越接近1,说明数据中心能源效率越高。2024年新出台的《数据中心绿色低碳发展专项行动计划》要求,到2025年底,全国数据中心平均电能利用效率降1.51.251.2PUE1.4的数据中心实行惩罚性阶梯电价;广东省要求国家枢纽节点数据中心集群内数据中心平均PUE1.25;上海市要求新建数据中心PUE1.25图表10 数据中心PUE限制政策发布时间发布单位政策名称PUE要求2019工信部《关于加强绿色数据中心建设的指导意见》新建大型、超大型数据中心的PUE达到1.4以下;通过改造使既有大型、超大型数据中心PUE不高于1.8。2021工信部《新型数据中心发展三年行动计划》2023PUE1.3以下,严寒和寒冷地区力争降低到1.25以下2022工信部《信息通信行业绿色低碳发展行动计划(2022-2025年)》到2025年,全国新建大型、超大型数据中心PUE降低到1.3以下2023北京市发改委北京市《关于进一步加强数据中心项目节能审查的若干规定》对PUE超过1.4的数据中心实行惩罚性阶梯电价2023广东省发改委《关于加强数据中心布局建设的意见》国家枢纽节点数据中心集群内数据中心平均PUE值不高于1.25;鼓励使用液冷技术2024上海市人民政府《上海市加快推进绿色低碳转型行动方案(2024—2027年)》新建数据中心能源利用效率(PUE)1.25以下,既有数据中心实施改造后,PUE不高于1.4。2024国家发改委《数据中心绿色低碳发展专项行动计划》20251.5以下,新建及改1.25以内,国家枢纽节点数据中心项目电能利用效率不得高于1.2信部,国家发改委,北京市发改委,广东省发改委,上海市人民政府,中国政府PUEPUE1.4液冷可将PUE1.25PUE1.1可以满足目前政策对数据中心PUE图表11数据中心不同散热技术对应PUE兴通讯液冷技术白皮书》3、总体拥有成本具备优势,液冷技术符合行业发展趋势资本支出差距较小,机架功率上升时液冷存在成本优势。总体拥有成本CostofTCO2MW数20kW40kW10%14%图表12 不同散热方式瓦特平均资本支出比耐德电气《CapitalCostAnalysisofImmersiveLiquid-Cooledvs.Air-CooledLargeDataCenters》IT设65%24%90%PUE收投资。以规模为10MW的数据中心为例,比较液冷方案(PUE1.15)和冷冻水方案(PUE1.35),预计2.2年左右可回收增加的基础设施初投资。图表13 典型数据中心耗占比 图表14 不同散热方式年冷却功耗及电费比制冷系统24%IT制冷系统24%IT设备,65%

办公照明,3%

1400120010008006004002000

风冷 冷板式液冷 浸没式液

9008007006005004003002001000冷却功耗(kW) 冷却电费(万元,右轴)兴通讯液冷技术白皮书 兴通讯液冷技术白皮书 注:液同比风冷每年收益(2MW机房)液冷具备TCO2N,UPSN+130kW80%。1)+2)+3)单相浸没模型:单相浸没液冷+氟化液。基于以上假设,测算结果显示冷板式液冷方案在OPEX假设条件区域华东地区暖通系统风冷模型:水冷冷水机组+精密空调冷板式液冷模型:冷板液冷+间接蒸发冷却单相浸没模型:单相浸没液冷+氟化液电气系统2NUSP架构;N+1柴发机柜30kW;服务器负载率80%测算对标体量2*20MVA外电对应体量IDC假设条件区域华东地区暖通系统风冷模型:水冷冷水机组+精密空调冷板式液冷模型:冷板液冷+间接蒸发冷却单相浸没模型:单相浸没液冷+氟化液电气系统2NUSP架构;N+1柴发机柜30kW;服务器负载率80%测算对标体量2*20MVA外电对应体量IDC成本测算范围不含服务器折旧和服务器运营支出;不含土地成本财务测算参数IRR=10%;机电折旧10年;土地折旧30年;12个月线性上架风冷(元/ITkW/月)冷板式液冷(元/ITkW/月)单相浸没式液冷(元/ITkW/月)CAPEX417~451358~386496~581OPEX780~810670~700650~680TCO1197~12611028~10861146~1261信通科技《液冷数据中心TCO分析》,转引自CDCC微信公众(三)AI驱动下游需求增长,液冷潜力巨大服务商加大创新力度,液冷技术广泛应用。2018TPUv3TPU10202120242025年图表16 微软液冷方案 图表17 液冷方案软公司官网 马逊公司官网AI时代降临,科技巨头持续加大投入。目前,人工智能技术已经成为全球科技领域新的聚焦点和爆发点。进入2024年后,为了给AI大模型训练提供算力条件,北美头部厂商的资本开支持续增长,其中亚马逊资本开支规模始终维持首位,主要系其为AWS为应对生成式AI需求而进行的底层算力前置布局。Alphabet与Meta紧随其后,其2025年财报指引均强调了对高性能计算集群(GPU/TPU)及下一代液冷数据中心架构的战略性扩容,以支撑Llama及Gemini等大模型的训练与推理迭代;微软则维持了稳健且持续的增长态势,体现了AzureAI服务与OpenAI深度绑定的基建刚性。整体而言,2025年是大厂资本开支从通用计算全面转向AI专用基建的分水岭,各家规划均显示未来数季度的投入将主要锁定在能源保障、数据中心扩建及自研芯片研发上,数据中心的建设对基础设施需求带来显著增量。图表18北美头部云服务商资本开支(亿美元)450.00400.00350.00300.00250.00200.00150.00100.0050.000.0022Q122Q222Q322Q423Q123Q223Q323Q424Q124Q224Q324Q425Q125Q225Q325Q4Meta Amazon Microsoft Google公司公二、算力升级突破风冷极限,液冷技术脱颖而出(一)传统风冷面临散热瓶颈,液冷方案日渐完善数据中心散热是保障稳定运行的关键,技术快速迭代。随着GPUPUE图表19 数据中心冷却术分类劲等《数据中心液冷散热技术及应用(二)冷板式液冷产业链成熟,占据当前市场主流1、技术路径清晰,多重部件协同运行冷板式液冷技术因其路径清晰,目前在液冷市场中占据主导地位。。冷板式液冷技术的工作原理是冷却液通过冷板(coldplate)与发热芯片(CPU、GPU等)60~80%20~40%的202495%图表20 冷板式液冷系原理图兴通讯液冷技术白皮书》一、二次侧实现室内外分割,多个核心零部件协同。室外室内液冷板(CPUGPU管道//(Manifold)/CDU图表21冷板式液冷系统部件拆分图邦笔电论设施冷源/冷水回路:在最顶部,是整个系统外部冷源的入口(例如冷水机、冷却塔、建筑冷源循环水等)。机架/传感//图表22 采用冷板式液方案的服务器托盘DCE2、单相两相各有侧重,两相冷板技术效率更高相变提升换热效率,但复杂程度和技术要求更高。冷板式液冷系统根据冷却液在冷板中是否发生相变,可以分为单相与两相两种模式。单相冷板中,冷却液在冷板内部循环时始终保持液体状态,通过冷却液在循环系统里的流动,带走服务器产生的热量。进一70%30%图表23 单相冷板式液系统结构图 图表24 两相冷板式液系统结构图劲等《数据中心液冷散热技术及应用》 劲等《数据中心液冷散热技术及应用》(三)浸没式液冷突破物理极限,极致PUE适配智算1、直接接触崭露头角,极致能效降低PUE浸没式液冷技术近年来崭露头角,或将成为未来热管理的重要发展方向。浸没式液冷是一种先进的服务器冷却方式,其基本原理是将服务器内的所有电子元器件完全浸没在非导电、高热容量的冷却液中。此方案利用液体的高效导热性循环带走服务器热量,实现了对发热部件快速、直接和充分的冷却,因此也称为直接接触式液冷。相较于非接触式的冷板式液冷,浸没式液冷可完全去除服务器内部的散热风扇。这种架构带来了极致的散热及节能效果,其数据中心PUE值理论上可降至1.1及以下。然而,浸没式液冷对服务器机柜和机房配套设施的投入及改造成本更高,且在运营维护层面也面临更大的挑战。图表25采用浸没式液冷技术的服务器建科技官网2、两相相变效能更为卓越,机柜由卧式向立式演进优化浸没式液冷根据冷却液在换热过程中是否发生相变,可分为单相浸没和两相浸没两种类型。单相浸没式液冷是一种高效的热管理技术,该技术的特征在于将服务器或电子设备直接浸没在具有良好导热性和绝缘特性的介电冷却液中。在运行过程中,液体通过单相CDU按浸没机柜形态划分,单相浸没液冷可进一步分为卧式与立式两类。图表26 单相浸没式液系统结构图(卧式) 图表27 单相浸没式液系统结构图(立式)劲等《数据中心液冷散热技术及应用》 劲等《数据中心液冷散热技术及应用》两相浸没式液冷是一种更为先进的热管理技术,其通过将电子设备浸没在低沸点介电液体中实现高效散热。当设备运行产生热量时,冷却液吸收热量并发生沸腾,进入汽化相变阶段,从而带走大量热能。随后,汽态冷却液在冷凝器中重新凝结为液体,完成循环图表28 两相浸没式液系统结构图(卧式) 图表29 两相浸没式液系统结构图(立式)劲等《数据中心液冷散热技术及应用》 劲等《数据中心液冷散热技术及应用》3、冷却液决定性能,油类和氟化液是当前主流绝缘冷却液性质直接影响散热效果好坏,多种成分可供选择以适应不同需求。冷却液在系统价值量中占比极高,同时也是制约其大规模应用的关键瓶颈之一。目前,浸没式液冷所用冷却液按照有无相变分为单相冷却液和相变冷却液。在现有数据中心直接接触式图表30 冷却液分类国信通院《智算中心液冷产业全景研究报告(2025年)》,万积清等《相变浸没式液冷系统研究油类冷却液的黏性比其他冷却液如氟化液和水要高。PUE1.0351.027、1.024HFE-7500FC-32831.2~1.4mPa·s1/61/400。低图表31 浸没式液冷冷液主要类型与特性较冷却液类型主要特性工作模式典型应用氟化液绝缘性强、化学惰性、沸点低单相/两相高性能计算、人工智能有机硅油导热性好、无毒/低毒、粘度高主要为单相数据中心、储能系统矿物油成本低、黏度较高单相低密度计算场景合成油密度高、黏度低单相/两相环保要求高的场景晓涵等《数据中心直接液冷冷却液研究进展(四)喷淋式液冷实现精准散热,低液量消耗兼顾效能定向喷淋技术兼具成本与效率优势,但技术难度大运维成本高。用量,其数据中心PUE可降至1.1左右。但喷淋式液冷需要对机柜和服务器机箱进行特定改造,且面临喷嘴堵塞等运维挑战,运维难度较大。图表32 喷淋式液冷工原理示意图信部《数据中心喷淋式液冷服务器系统技术要求和测试方法》(五)新型液冷技术持续演进,软硬协同应对极热微通道液冷技术并非与冷板式完全并列的独立方案,而是冷板式技术向更高散热通量演进的产物。其核心原理是通过在冷板或封装内部构造微米级的细小流道,利用液体循环实现高效散热,并利用极高的表面积体积比以增强导热性能,与传统冷板相比,微通道图表33 微通道液冷技结构示意图fzalHusain等《DesignOptimizationofMicro-ChannelforMicroElectronicCooling》微通道截面差异大,需兼顾加工和流体力学特性。微通道液冷系统的构成,与前述的冷板式液冷基本一致。其关键区别在于液冷板/冷头的内部结构设计,核心部件为微通道散热器,散热器内部具有精密微通道结构的冷板,通常由高导热材料(如铜或铝)制成。微通道散热器横截面形状的设计与应用要求密切相关,通常会选择不规则的横截面形状,因为复杂的几何形状会增强湍流并改善对流传热。然而,这种复杂的形状通常会导致更高的流动阻力和泵功耗,以及制造成本的增加。相比之下,矩形、六边形和圆形横截面等规则形状更容易制造,能提供更好的流动稳定性,适用于冷却剂流量更高的应用。图表34微通道散热器不同横截面示意图hijun等《Acomprehensivereviewofcoldplateliquidcoolingtechnologyfordatacenters》微通道方案对泵、管路接头、冷却液属性提出更高要求。除微通道散热器外,微通道液冷技术对泵组和冷却液也提出了更高的要求。由于流体流经微通道时会产生较高的流动阻力,系统需要配备更高扬程的泵组以克服阻力。另外,微通道液冷对冷却液的洁净度要求极高。微米级的通道极易被流体中的微粒、生物膜或腐蚀产物堵塞,因此对过滤和冷却液化学配方的要求远超传统冷板。从MCCP到MLCP,散热技术向热源的不断逼近。微通道技术的分类,主要基于其与芯片集成的层次。这种分类方法清晰地揭示了散热技术为消除热阻而不断向热源逼近的演进路径,也揭示了未来微通道技术的发展方向。(TIM之上。TIM1IHSTIM2TIM2微通道水冷板(MLCP):这是为解决超高功率芯片(例如2000W+以上)散热问题而设计的革命性技术。MLCP通过微米级流道集成化设计,将传统覆盖在芯片上的金属盖与上方的液冷板整合,内嵌微通道设计,使液冷散热冷却液能够直接流经芯片表面,极限地减少热阻,最大化换热效果,被视为应对下一代AI芯片散热瓶颈而生的分水岭式技术。目前,MLCP仍是新兴技术,制造成本的高企也为其推广树立了壁垒。(六)多条技术方案齐头并进,冷板式或率先放量各液冷技术路线在散热极限、部署成本与成熟度之间呈现出显著的差异化。PUETDP>2000W图表35 各液冷技术优对比对比维度冷板式浸没式喷淋式微通道散热效率(TDP支持)中高50-100kW+)极高(机柜支持75-225kW+)高极高数据中心PUE优(1.1~1.2)极致(≤1.1)优(≈1.1)极优技术成熟度&市场份额高中低极低初始改造成本(Capex)低-中(可改造性强)高高极高运维难度(Opex)低高高中冷却液兼容性广泛严苛严苛严苛核心挑战热阻瓶颈以及未来更高算力散热需求冷却液成本与环保问题;运维复杂市场接受度低;喷嘴可靠性量产良率与成本;通道堵塞风险兴通讯液冷技术白皮书》,《Spraycoolingsystemtakestheheatoutofdatacentres》,《中国信通院智算中心液冷产业全景研究报告(2025年)》,PanAmericanFinance《GlobalDataCenterMarketReport三、投资建议(一)英维克:技术领先的精密温控节能解决方案与产品提供商2005图表36 英维克业务布局维克公司公告依托空调业务基础,快速发展为储能及数据中心液冷解决方案领先供应商。公司成立初期,主要聚焦于户外机柜空调、数据中心空调等业务。2014年,公司产品首次应用于储2018~20192018Xfluid10~100kW/2019XGlacierPUE2020200kW20222.0,并推出Coolinside620252GW。图表37 数据中心液冷展历程维克官网,英维克公司公告,英维克微信公众20182018~2024CAGR27.5%。202540.340.2%。202424.448.8%,带动公司收入增速显著提升。从业务构成来看,主要分为机房温控、机柜温控、客车空2018202513.552.5%,57.9%图表38 英维克营业收入 图表39 英维克业务结构50.045.040.035.030.025.020.015.010.05.00.0

45%40%35%30%25%20%15%10%5%0%

100%0%

2018 2019 2020 2021 2022 2023 20242025H1营业收入(亿元) YoY

机房温控 机柜温控 客车空调 轨道交通列车空调 其他净利率较稳定,机房温控业务毛利率与公司综合毛利率差距逐步缩小。公司归母净利润保持较高增速,从2018年的1.1亿元增长至2024年的4.5亿元,CAGR达到26.5%。20254.02032023图表40 英维克归母净润 图表41 英维克毛利率净利率5.04.54.03.53.02.52.01.51.00.50.0

60%50%40%30%20%10%0%

40.0%35.0%30.0%25.0%20.0%15.0%10.0%5.0%0.0%

2018 2019 2020 2021 2022 2023 2024 25H1归母净利润(亿元) YoY

销售毛利率 销售净利率 机房温控业务毛利率液冷全链条自主生产交付,数据中心温控全场景覆盖。经过数年产品迭代,在数据中心液冷领域,公司产品包括Coolinside全链条液冷解决方案和Coolinside浸没式液冷解决方案,可实现从冷板、快速接头、Manifold、CDU、机柜,到SoluKing长效液冷工质、管路、冷源等端到端的产品覆盖,从服务器制造工厂,到数据中心运行现场的厂到场交付场景覆盖,通过自主研发、自主生产、自主交付、自主服务,全面保障液冷系统的零风险运行。针对不同场景下数据中心业务的弹性需求,公司在传统风冷方案的基础上,推出了包括冷板液冷+冷冻水列间、冷板液冷+风墙等多种风液融合方案,液冷占比50%~90%PUE<1.2XSpace6S图表42 Coolinside全链条解决方案示意图 图表43 全场景温控示图维克微信公众号 维克官网公司客户资源优质,与海外龙头形成合作。20249BHS-APCPUUQDManifoldCDU年OCPUQD产品被列入英伟达的MGX图表44 英维克部分数中心客户 图表45 英维克与英特达成合作维克公司公 维克微信公众号(二)申菱环境:具备垂直一体化温控解决方案的专用特种空调供应商2000ICT平。图表46 申菱环境主营务应用领域 图表47 申菱环境主营务产品种类菱环境公司官 菱环境公司官01~204年收入CR达18.02525.126.8%202280%20222025图表48 申菱环境营业入 图表49 申菱环境业务构设备 解决方案及增值服务 数据服务空调35.030.025.020.015.010.05.00.0

30.0%25.0%20.0%15.0%10.0%5.0%0.0%

工业空调 特种空调 公建及商用空其他100%80%60%40%营业收入(亿元) YoY

2018 2019 2020 2021 2022 2023 20242025H125年业绩预计同比大幅修复,提质增效净利率修复。2019~2022年,公司凭借在传统主219年的10222年的1.7R19.4%20212023年2023202336.9%1亿202520252.1~2.577.4%~112.9%23.2%20256.2%,20242.5pct。图表50 申菱环境归母利润 图表51 申菱环境毛利和净利率1.81.61.41.21.00.80.60.40.20.0

归母净利润(亿元) YoY

30.0%20.0%10.0%0.0%-10.0%-20.0%-30.0%-40.0%

35.0%30.0%25.0%20.0%15.0%10.0%5.0%0.0%

销售毛利率 销售净利率与国内头部客户紧密合作,募资建厂强化技术优势。方案供应商,早在年便与中国移动南方基地开展数据中心液冷技术的预研,并在2021年7月正式上市后,通过确立数据服务核心板块完成了战略聚焦;随着2023年AI202475.4%51%H2025810图表52 申菱环境液冷业发展历程菱环境官网,申菱环境公司公告,南方网,财联社,证券时在液冷研发与产业技术积累较早布局。公司自2011年起进入液冷研究阶段,是国内较早涉足该领域的企业之一。申菱环境构建了前端散热冷源设计、中端液冷管路与冷量分配单元集成,以及后端现场安装、调试与全生命周期运维服务的完整业务闭环,为客户提供全面系统化的解决方案,这种温控垂直一体化的商业模式,显著提升了市场响应速度与交付质量,在业内形成了明显优势。针对更高功率密度的散热需求,公司已储备了PUE更低的浸没式液冷技术,这是公司在下一代散热技术竞争中保持技术领先的关键。ICT(三)同飞股份:聚焦工业温控技术创新和专业化发展的高新技术企业2001(图表53 同飞股份业务局飞股份公司微信公众号深耕工业制

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论