人工智能行业:AI服务器功率增长使AI芯片电感和AI芯片电容需求持续增长_第1页
人工智能行业:AI服务器功率增长使AI芯片电感和AI芯片电容需求持续增长_第2页
人工智能行业:AI服务器功率增长使AI芯片电感和AI芯片电容需求持续增长_第3页
人工智能行业:AI服务器功率增长使AI芯片电感和AI芯片电容需求持续增长_第4页
人工智能行业:AI服务器功率增长使AI芯片电感和AI芯片电容需求持续增长_第5页
已阅读5页,还剩31页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

券研究报告

行业动态报告AI服务器功率增长使AI芯片电感和AI芯片电容需求持续增长发布日期:2025年12月6日核心观点:人工智能的功率增长带来AI芯片电感和AI芯片电容通胀

材料能力是器件性能的重要前提,材料器件一体化布局的企业将获得更高产业链壁垒、更深客户绑定及更大成长空间。

AI芯片电感。铂科新材、龙磁科技等进入全球尖端电感市场,成为全球为数不多匹配英伟达、谷歌、阿里、等AI产业链研发需求的企业,由生产型转变为研发创新型企业,科技属性增强,参考海外头部企业近百年发展史,上述公司有望乘AI浪潮,快速成长。

AI芯片电容。高端MLCC产品集中日韩,AI带来超细镍粉需求快速增长。博迁新材是全球纳米镍粉领军企业,80nm镍粉达到全球领先水平,顺应MLCC小型化高容量趋势,拿到国际头部客户近50亿订单,同时银包铜粉、纳米铜粉、纳米硅粉等对应光伏低银/无银化、固态电池等需求,成长空间大。2摘要:AI服务器功率增长使AI芯片电感和AI芯片电容需求持续增长

谷歌推出新一代大模型Gemini

3

Pro,加速AI行业发展及市场竞争。Google在AI竞赛中具备两大核心优势:AI应用生态构建完备,具备垂直领域全方位整合突破的能力。谷歌TPU芯片是其AI加速基础设施的核心,部署于谷歌数据中心,通过TPU

Pod实现集群化互联形成AI超级计算平台,支撑包括Gemini等在内的大模型训练。TPU迭代升级,性能及功耗水平不断提升。

供给侧制程与架构持续迭代推动单芯片功耗快速上行。一方面,伴随芯片制程从12nm向7nm乃至4nm转型,单位面积晶体管数量大幅提升,导致单位面积功耗快速上行;另一方面,更新的架构确保了新品芯片具备更强计算性能与并行处理能力。二者共同作用导致近年来芯片新品的功耗总额迎来大幅跃迁。

垂直供电是未来趋势:电感和电容成为GPU核心供电部件。随着单颗GPU功耗从数百瓦提升到700W、1000W甚至2000W,芯片需要的电流已经达到千安级(600A–1500A),电感需求数量为此前数倍,为了缩短供电路径、降低阻抗、减少损耗并提升瞬态响应,行业开始向近芯片端供电+垂直供电过渡。NVIDIA、Meta、Google的下一代机柜方案都在为此做技术储备。大电流场景下,芯片电感性能要求更高,价值量上升,ASIC由于其更高电感性能要求,叠加未来TLVR电感渗透率提升,ASIC领域电感价值量提升速度或更快。

AI服务器MLCC需求量十数倍增长。CPU、GP

U、TPU等进行高运算时,会瞬时发生大的电流变化,超高容MLCC将最大程度减少电压下降,快速补偿电流波动,提高电源稳定性。MLCC需求走向小型化、高容值、耐高温等方向,这对制作MLCC的粉体而言,要求更细、比表面更大,以满足小体积大容量的高容值电阻的要求。同时需求数量快速激增,AI服务器MLCC用量可以达到2.8万颗/台,是普通服务器的13倍,容量达600,000μF,是传统服务器的27倍。

材料性能决定器件性能,材料器件一体化企业更具优势。拥有上游原材料布局的一体化企业,不仅可以保障原材料的供应稳定,同时可以满足下游需求的快速迭代,更受客户青睐,从而获得更高产业链壁垒、更深客户链绑定及更大成长空间。AI芯片电感领域,铂科新材、龙磁科技等进入全球尖端电感市场,成为全球为数不多可以匹配英伟达、谷歌、阿里、等AI产业链研发需求的企业,这些企业由生产型企业转变为研发创新型企业,科技属性增强,参考海外头部企业的近百年发展路径,龙磁科技、铂科新材等有望乘着AI浪潮,获得持续快速的增长。AI芯片电容领域,高端M

LCC主要集中在日韩,AI需求带来高端细纳米镍粉需求快速增长,博迁作为国际纳米镍粉生产领军企业,80纳米级镍粉达到全球领先水平,顺应了MLCC小型化高容量的产业趋势,并拿到国际头部企业近50亿订单锁定,获得快速发展,同时其银包铜粉、纳米铜粉(光伏铜浆替代光伏银浆)、纳米硅粉等对应光伏低银/无银化趋势、固态电池等需求,未来成长空间大。3人工智能高速发展,谷歌激起竞争加剧谷歌激起竞争加剧:Gemini

3性能大幅提高

Gemini

3是Google于2025年11月推出的新一代大模型,Gemini

3

Pro是其旗舰版本。Geimini

3刷新了多项Benchmark的最高分,并在多项任务上较Gemini2.5

Pro得到了大幅提高,并显著领先其他模型。

Gemini

3的“深度思考模式”(Deep

Think

mode)在一些最具挑战性的AI基准测试中表现出色。在测试中,Gemini

3

Deep

Think在“人类最终考试”中的表现(未使用工具的情况下达到41.0%)以及在GPQA

Diamond测试中的表现(达到93.8%),均超越了Gemini

2.5

Pro。它还在ARC-AGI-2基准测试中取得了45.1%的突破性成绩(启用代码执行),充分展现了其解决新型挑战的能力。Deep

Learning

Lead和Gemini项目的联合负责人称:推理能力来自改进预训练和后训练,后训练仍然是一片完全的绿地,算法上还有大量进步和改进的空间,看不到任何天花板!图:Gemini

3刷新多项benchmark的最高分图:ARC-AGI-2测试结果资料:Gemini,中信建投55资料:Gemini,中信建投谷歌激起竞争加剧:全栈AI生态布局,从落后到重回领先

2025年11月发布的Gemini

3

Pro,是谷歌时隔8个月后的大版本更新,模型的多模态理解能力和推理能力大幅提升,能够无缝集成分析视频、音频、图像、文字和代码等多种数据格式,在多项测评中均超过OpenAI的GPT-5.1、Grok

4.1等,登顶多项权威测评如Artificial

Analysis、LMArena的全球第一。谷歌作为曾经AI领域的领跑者,错失了发布类ChatGPT产品的先机。Gemini的诞生和快速迭代,实现了重回领先者的反击。

Google在AI竞赛中具备两大核心优势:一是AI应用生态构建完备,更新后的AI

mode搜索引擎把牢流量入口,结合其在移动互联网的强大应用生态如邮箱、地图、视频网站等。二是Google具备垂直领域全方位整合突破的能力,据Artificial

Analysis,Google是目前全球唯一一家在算力芯片、基础模型、云推理计算、AI应用方面全栈深度布局的公司。根据SemiAnalysis分析,全球AI工作负载中,NVIDIA

GPU占70%,而Google

TPU则占据了28.6%,强大的硬件和模型进一步奠定了Google打造AI应用全家桶的坚实基础,形成数据-算力-模型-场景的正向循环。图:Google是全球唯一一家在AI应用、模型、云推理、硬件实现全栈垂直整合的公司图:Gemini

3

Pro登顶Artificial

Analysis大模型榜首资料:google,

Artificial

Analysis,中信建投资料:google,

Artificial

Analysis,中信建投6谷歌激起竞争加剧:仅靠TPU训出全球最强模型

Gemini

3

Pro完全使用谷歌的张量处理单元(TPU)进行训练,摆脱英伟达束缚,给AISC产业注入强心剂。TPU专为处理训练LLM所需的大量计算而设计,配备高带宽内存,能够在训练中处理大型模型和更大的batch

size。

张量处理单元(TPU)是Google为加速机器学习训练与推理而定制开发的一种ASIC芯片。在训练大型复杂的神经网络模型时,TPU可以最大限度地缩短达到准确率所需的时间。以前在其他硬件平台上需要花费数周时间进行训练的模型,在TPU中只需数小时即可收敛。与GPU相比,TPU采用低精度计算,在几乎不影响深度学习处理效果的前提下大幅降低了功耗、加快运算速度。

2025年4月谷歌的Cloud

Next大会发布了最新的第七代TPU

Ironwood,作为高效的并行处理器,Ironwood在管理大规模计算方面表现出色,并显著减少了数据在芯片内部传输所需的时间,使模型运行得更快、更流畅。更大的集群互联:谷歌借助Ironwood在一个超级Pod中扩展到9,216块芯片,并通过9.6Tb/s的通信速度实现芯片间互连。这种强大的连接性使得数千个芯片能够快速通信,并访问惊人的1.77PB共享高带宽内存(HBM),克服了即使是要求最苛刻的模型也会遇到的数据瓶颈。这种效率显著减少了训练和运行尖端AI服务所需的计算时间和能源。图:Ironwood

集群直接连接

9,216

Ironwood

TPU形成一个单一域图:TPU7

Ironwood芯片7资料:微软,中信建投资料:微软,中信建投谷歌激起竞争加剧:TPU性能快速迭代提升

谷歌自研TPU芯片的持续迭代。谷歌TPU芯片是其AI加速基础设施的核心,已在十年内持续迭代演进至第7代。TPU被广泛部署于谷歌数据中心,通过TPUPod实现集群化互联,形成AI超级计算平台,支撑包括Gemini等在内的大模型训练。

Google

TPU持续迭代创新,算力水平全球领先。2016年推出的TPUv1提供了AlphaGo的重要算力支撑,而后谷歌持续迭代优化其芯片性能,2021年推出的TPU

v4的性能比TPU

v3高2.1倍,性能功耗比提高2.

7倍。TPU

v5将通信网络升级成更高带宽的ICI(inter-chip

interconnect),浮点与bfloat16混合精度进一步优化,使得同规模训练任务相比v4继续获得2倍左右的集群训练吞吐提升。TPU

v6

则围绕多模态大模型训练需求进行架构强化,在谷歌Gemini

1.5/2的训练中提供了主力算力,整体能效较v5再提升约30–40%。最新一代的TPU

v7成为Gemini最新模型的底座,它在保持高带宽互联的同时引入更先进的定制AI

Tenso

rCore与“超大规模机柜级协同”设计,成为当前谷歌内部训练超大模型的最高效平台之一。Google表示它是“迄今为止最强大、最能效的自研AI芯片。”表:谷歌历代TPU参数对比TPUv1201528

nmDDR38

GB34GB/s92TPUv2201716

nmHBM16

GB600GB/s-TPUv32018TPUv4

i20207nmTPUv42021TPUv5

e2023TPUv5

p2023TPUv6

e2024TPUv7

p2025Release

DateNode16

nmHBM232

GB900GB/s-7nmHBM232

GB1.2TB/s2755nm5nm4nm3nmMemory

TypeMemory

SizeMemory

BandwidthINT8

TOPSBF16

TFLOPSTPU

Pod数量TDPHBM28

GB614GB/s138HBM216

GB819GB/s393HBM2e95

GB2.8TB/s91832

GB1.6TB/s1836192

GB7.4TB/s4614-461231382751974599182307-2561024-40962568960256921675W280W450W175W300W225W537W383W959W资料:谷歌,中信建投8谷歌激起竞争加剧:多家大厂入局ASIC,竞争加剧

北美四大CSP加速自研ASIC芯片。AI服务器需求的爆发,正促使北美四大云服务提供商(CSP)加速自研ASIC芯片。这些公司平均每1-2年就会推出升级版本,旨在降低对英伟达、AMD等通用GPU的依赖,同时控制成本,改善运营支出。

AWS自研芯片,满足推理与训练两大核心场景。AWS自2018年开始布局自研芯片,推出了推理专用芯片Inferentia和大规模训练芯片Trainium。这些芯片广泛部署于Amazon

EC2实例中,支持从语音识别、机器翻译到生成式AI的多种应用场景。最新推出的Trainium3芯片采用3nm工艺,性能和能效均有显著提升。Meta自研芯片,专为推荐算法和推理任务设计。Meta自研的AI加速芯片MTIA(Meta

Training

and

Inference

Accelerator)是其高效AI基础设施的关键组成部分,专为大规模推荐系统和推理任务而设计。截至2024年,Meta已推出第二代MTIA芯片,并在全球数据中心部署,广泛应用于Facebook、Instagram等平台的广告排序和内容推荐。微软Maia

100芯片支持8-bit以下数据类型。微软于2023年11月发布了首款AI芯片Maia

100,采用台积电5nm制程,其独特之处在于支持8-bit以下的数据类型,即MX数据类型。这一特性通过软硬件协同设计,显著加快了模型训练和推理的速度,主要用于支持微软Copilot或Azure

OpenAI

Service等服务。表:AWS自研芯片迭代表:Meta自研芯片迭代InferentiaInferentia

2Trainium1Trainium28x

NeuronCores

v3HBM3MITA

v12023MITA

v22025Compute

CoreMemory

TypeMemory

Size4x

NeuronCores

v1

2x

NeuronCores

v2

2x

NeuronCores

v2Release

DateNodeDDR4HBM32

GBHBM2e32

GB820

GB/

s4207nm5nm8

GB96

GBMemory

TypeMemorySizeMemory

BandwidthINT8

TOPSLPDDR5LPDDR5Memory

BandwidthINT8

TOPS50

GB/

s820

GB/

s3802.9

TB/s64GB128GB128-176GB/s204.8GB/s354TFLOPS177TFLOPS8xPCIe

Gen5(32GB/s)90WFP8

TFLOPS1901911299

|2563*667102.4TFLOPS51.2TFLOPS8xPCIe

Gen4(16GB/s)25WFP16/BF16

TFLOPSTF32

TFLOPSFP32

TFLOPSNeuronLink64-190191FP16/BF16

TFLOPSHost

ConnectionTDP190190667-47.547.5181v1v2

384

GB/s:谷歌,中信建投v2

384

GB/sv3

384

GB/s资料资料:谷歌,中信建投9AI服务器功率增长使AI芯片电感和AI芯片电容需求持续增长AI计算功率大幅提升:单卡功率及服务器机柜功率快速提升

英伟达的B系列芯片和NVL72机柜热设计功率TDP(Thermal

Design

Power)飙升:H100的TDP最高为700W,B200的TDP最高为1000w/1200W,增长约5-7成;H100每个机架的TDP约为40kW,B系列机架的TDP约为120kW,功率增约200%-500%。

为了应对更大参数量模型的训练,机柜式方案设计已经成为主流。图:H100机箱与B200机箱的TDP对比(芯片-计算单元-机箱)DGX

H100计算平台装有8块H100芯片和2块英特尔CPU(TDP

300W),总计为6200W。DGX

H100

SXM上装有1块H100芯片。H100芯片最高配置下TDP为700W。H100机箱一般由4个DGX

H100计算平台组成,TDP为6200*4=24.8kW。考虑到通信与网络,总计约为40kW。×

ퟖ×

ퟏ×

ퟒBianca主板内置2块B200芯片和1块GraceCPU(TDP500W),总计TDP为2400W+500W=2900WGB200计算托盘内含B200芯片最高配置下TDP为1200W。在不考虑电源分配,网络通信2块Bianca主板总计TDP为5800W互联等单位的TDO情况下,一整个GB200

NVL72机箱TDP为104kW。在考虑NVSwitch和交换机等辅助功能的情况下,总计TDP为120kW.×

ퟐ×

ퟐ×

ퟏퟖ资料:英伟达官网,中信建投1111AI计算功率大幅提升:制程/架构持续迭代,芯片功耗快速上行

需求侧对算力要求指数级提升。2023年之前随着互联网用户和各类网络应用的快速增长,数据体量的急剧膨胀,数据中心对计算的需求也在迅猛上涨。传统CPU处理器无力处理众多数据,GPU凭借其相对通用灵活和适应并行计算等特性成为主要选择。

供给侧制程与架构持续迭代推动单芯片功耗快速上行。一方面,伴随芯片制程从12nm向7nm乃至4nm转型,单位面积晶体管数量大幅提升,导致单位面积功耗快速上行;另一方面,更新的架构确保了新品芯片具备更强计算性能与并行处理能力。二者共同作用导致近年来芯片新品的功耗总额迎来大幅跃迁。单芯片功耗提升:从V100的300w、A100的400w、H100的700w、B200的1200w。据Semianalysis,英伟达下一代Rubin芯片的功耗可能进一步提升到2000W以上。机柜式方案提升功耗:在英伟达B系列机柜中,单机柜装载72颗B200/B300芯片,对比H100每个机架的TDP约为40kW,B系列机架的TDP提升至120kW。且在下一代方案中,单机柜内芯片的集中度可能更高,因此对于功耗的分配、机柜间、机柜内、芯片间的供电稳定性都提出了更大的挑战。图:英伟达各经典架构特性及典型芯片架构代号KeplerMaxwellPascalVoltaTuringAmpereHopperBlackwell中文代号开普勒麦克斯韦帕斯卡伏特图灵安培赫柏布莱克韦尔16个SM,每个SM包括480个SM,每个SM包括

72个SM,全新设计,每

108个SM,每个SM有

132个SM,每个SM有15个SMx,每个SMx包

个处理块,每个处理块

60个SM,每个SM包括32个FP64,64个INT32

个SM里有64个INT32,

64个FP32,64个INT32128个FP32,64个ITN32,64个FP64,4个Tensor

Core核心参数

括192个单精度+64个双精度的Cuda

Cores包括32个CudaCores+8个LD/STUnit+8个SFU64个Cuda

Cores和32个待定,64个FP32,8个Tensor

Core64个FP32,8个Tensor,32个FP64,4个Tensor

CoreDPCoresCoreTensor

Core

3.0RT

Core

2.0Tensor

Core

5.0NvLink

5.0第二代Transformer引擎NvLink2.0,TensorCore

1.0满足深度学习和AI运算Tensor

Core

4.0NvLink

4.0结构稀疏性MIG

2.0游戏性能大幅提升,首

每个SM单元拥有更多的

NVLink一代,双向互联Tensor

Core

2.0,RT特点/优势次支持GPU

Direct技术逻辑控制电路带宽160GB/sCore

1.0NvLink

3.0结构稀疏性MIG

1.028nm28nm16nm12nm12nm7nm4nm程不定纳米制程经典芯片71亿晶体管80亿晶体管153亿晶体管211亿晶体管186亿晶体管283亿晶体管800亿晶体2080亿晶体管K80(130W)M5000(150W)P100(250W)V100(300W)T4(70W)A100(400W)H100(700W)B200(1200W)资料:英伟达官网,中信建投12垂直供电是未来趋势:电感和电容是GPU供电模块中不可或缺的被动元件

垂直供电正在成为下一代AI服务器的必然趋势。随着单颗GPU功耗从数百瓦提升到700W、1000W甚至2000W,芯片需要的电流已经达到千安级(600A–1500A)。传统的“从主板边缘长路径供电”因为路径阻抗高、瞬态掉压大、铜损严重,已经无法满足高性能GPU的快速动态负载。为了缩短供电路径、降低阻抗、减少损耗并提升瞬态响应,行业开始向近芯片端供电+垂直供电接口过渡。NVIDIA、Meta、Google的下一代机柜方案都在为此做技术储备。

目前的三级供电体系:机房内供电、机柜级供电、芯片端供电。1)机房内供电:主要是将10kV

AC的市电转换为208/230/380V三相AC,并通过配电柜分配给各个机柜。2)机柜内供电:机柜内的Power

shelf通过AC-DC(交流-直流)转换和降压,将三相AC转换为48V

DC母线,至计算托盘内的服务器电源,并同时为UPS等备用电源充电。3)芯片端供电:服务器电源得到48v的DC后进一步降压至12V

DC,并通过PCB传输至GPU芯片附近的VRM(电压调节模块,Voltage

Regulator

Module),VRM进一步通过降压、稳压,将1V的稳定电压加到GPU上,并提供千安级的稳定电流,保证GPU在大动态负载下稳定运行。

多层供电的原因:电压越高传输损失越少,成本越低,因此需要逐级降压,最后在近芯片端才通过VRM为芯片提供稳定的1v低压。图:机柜级供电体系(低压配电系统)图:数据中心级供电体系(高压配电系统)

将600A/375A电流变成25A、48V输送至计算托盘内的服务器电源13资料:《数据中心供配电系统的设计》,《全面掌控数据中心供配电系统》,中信建投资料:Microchip

technology,中信建投垂直供电是未来趋势:电感和电容是GPU供电模块中不可或缺的被动元件资料:英飞凌,中信建投14垂直供电是未来趋势:电感核心是变压和稳压

VRM(Voltage

Regulator

Module)是GPU/CPU的近芯片供电装置,主要由MOSFET开关、电感(Choke)、输出电容、控制器等组成。它负责把来自PSU的12V等中压电源,转换成芯片可以直接使用的0.8–1.2V低压,并提供几百到上千安的稳定电流。VRM是整个电源链路中决定芯片稳定性、性能发挥和功率效率的关键环节。

图1展示了VRM的核心结构:高侧MOSFET负责把12V电源切成高速脉冲;电感(Choke)将这种脉冲电流储能并平滑成连续电流;电容负责进一步滤波,使最终送到CPU/GPU的电压稳定干净。该电路的目标是将A点之前的12V电源电压转换为CPU或GPU在B点所需的较低工作电压,大约为1.2V。图2展示了:当高侧开关关闭时,点A处的电压变为12V,电流经高侧开关直接进入电感,电感器抵抗电流变化并建立磁场,然后流向B点并供电给GPU。电感在这个过程中限制电流上升速度,使输出电流平滑连续,同时电容负责稳定输出电压,避免GPU在负载变化时出现电压跌落。图3展示了:A点直接受开关影响,因此会在0V与12V之间高速跳变;而电感将这种脉冲转换成平滑电流,使B点呈现缓慢上升的斜坡波形。最终,B点在经过电容滤波后变成稳定的低压直流,这是GPU需要的“干净电源”。图:芯片端供电体系(VRM示意图)图:闭合高侧开关时,电感充电图:闭合高侧开关时,B点电压稳步提升电感15资料:wikichip,中信建投垂直供电是未来趋势:电感和电容是GPU供电模块中不可或缺的被动元件

图1表示:断开高侧开关时,电感开始放能。当高侧开关断开后,PSU与点A被切断,12V不再输入。但电感不能让刚才建立的电流突然归零,它会立即释放刚才储存的能量,维持电流继续沿着电感→点B→GPU→回路的方向流动(放能过程)。这时点B的电压会随着电感的放能逐渐下降,而电容也同步释放电荷,平滑这一下降,使GPU依然看到相对稳定的电压。

图2表示:高侧开关断开且低侧开关现在导通时,点B输送到CPU/GPU的电压。图3表示:VRM在几十万次/秒的开关频率下不断重复“高侧开关闭合储能→高侧开关断开放能”的循环。点A呈现快速跳变的方波(12V和0V之间切换),而点B则近似为1.2v上下波动,再通过电容的共同滤波下,被平滑成接近恒定的直流电压(例如1.2V),为GPU提供稳定、低噪声、瞬态响应快的供电。

VRM电路的最终目标是提供GPU所需的恒定电压。为了达到GPU的工作电压(这里假设为1.2V),电路需要在B点的电压达到1.2V时切断电感器的充电。一旦发生这种情况,电压将开始下降,此时电路将重新开始为电感器充电。通过一种称为脉宽调制的技术,整个循环将无限重复,以保持平均电压在所需的运行电压。为了获得所需的1.2V,占空比应为10%。在实际电路中,低侧和高侧MOSFET的导通和关断是由PWM控制器以及驱动器或倍压器完成的。图:通过调节开关,可以保持B点电压稳定在1.2v上下图:断开高侧开关时图:断开高侧开关时,B点电压稳步下降资料:wikichip,中信建投16垂直供电是未来趋势:电感和电容是GPU供电模块中不可或缺的被动元件

而在实际工作中,VRM是通过多相电路来共同调节电压。多相VRM将单相的电路复制成多路(例如Φ1、Φ2、Φ3),每一路都有独立的MOSFET、驱动器和电感。各相按照固定的相位差轮流工作:当一相在“储能”时,另一相可能处于“放能”或“休息”状态。这样分担电流、错峰开关,使总输出更加平滑、响应更快,同时显著降低单个元件承受的热和电流压力。多相的必要性:高性能CPU/GPU在毫秒内电流可能从几十安跃升到几百安,多相VRM可以把总电流拆分到多个通道,每相只需承担总电流的一小部分。例如300A的需求拆成6相,每相仅50A,不但减少热量,也让电感、电容更容易控制纹波。多相并联后的电压叠加效果能让输出更平稳、瞬态响应更快,避免GPU因电压下跌而降频或不稳定。单GPU需要配置多个电感芯片:在主板或GPU卡的实物中,可以看到GPU处理器附近整齐排列着一排排电感(Chokes)、MOSFET和电容,这些器件共同构成多相VRM。每“相”都需要独立的电感,因此GPU/CPU旁边必须堆满多个电感芯片,形成一个高响应、低损耗的供电阵列。正是这些电感在不断储能和放能,使处理器在高功耗突发时仍能获得稳定的1V左右核心电压。图:VRM多相工作示意图图:电感芯片阵列实物图17资料:wikichip

,中信建投资料:wikichip,中信建投垂直供电是未来趋势:电感和电容是GPU供电模块中不可或缺的被动元件

现代高功耗GPU的VRM相数已经从过去的6–12相提升到20相以上,以承受数百安培的瞬态电流。英伟达B200(单GPU)的核心供电通常配置18–24相,每相一颗电感,因此板上会看到20颗左右的大号磁性电感排成一列。而GB200(2×B200+Grace

CPU)实际相当于两块B200级别的GPU再叠加一个CPU

SoC,三者分别需要独立的多相VRM,因此整卡的核心供电电感数量往往超过40颗以上,是传统GPU的数倍。这些电感共同承担上千安培级的电流分配,是GB200能稳定工作、避免大规模电压下陷的关键。图:某厂商的垂直供电模块示例(针对AI芯片的高电流需求进行了优化布局设计)图:NVL72机柜GPU示意图图:NVL4机柜GPU示意图资料:Serverthehome

,中信建投资料:芝能智芯,Nvidia,中信建投资料:芝能智芯,中信建投AI趋势下的芯片电感市场爆发

AI发展拉动GP

U销量激增和迭代加速,引发对芯片电源模块的批量供应和性能升级的双重需求。根据《智能世界2030》报告预测,2030年,人类将迎来YB

数据时代,2030年通用算力将增长10倍到3.3ZFLOPS,AI算力将增长500倍超过100ZFLOPS。算力需求的爆发式增长,直接引致AI服务器的出货量和占比的加速提升。根据Trend

Force公布的《AI服务器产业分析报告》,预估2024年AI服务器出货量可上升至167万台,年增长率达41.50%,预估2024年AI服务器产值将达1870亿美元,在服务器中的整体占比高达65%。GPU作为AI服务器的核心算力芯片,占据目前AI芯片市场80%以上的市场份额,AI产业的快速发展直接拉动GPU的销量激增和迭代加速,继而引发了对芯片电源模块的批量供应和性能升级的双重需求。

功耗增加及多样需求催生新供电方案,带来单颗电感价值量的提升。展望未来,板侧供电长电流路径、扩展性差、空间占用大的缺点制约了其进一步发展空间,垂直供电具备节约面积、减少PDN损耗、降低EMI等诸多优势,有望成为继板侧供电后的新一代CPU/GPU芯片大电流负载供电方案。大电流场景下,芯片电感性能要求更高,价值量上升,ASIC由于其更高电感性能要求,叠加未来TLVR电感渗透率提升,ASIC领域电感价值量提升速度或更快。表:AI芯片三级供电电感市场规模测算图:AI芯片三级供电电感市场规模测算40单位万片万片2023211150342024480265322025E

2026E

2027E

2028E

2029E34.53530252015105出货量GPU560420418058954711001405611300200071150029007923.5芯片ASIC15.4平均单片用电感数

片8.0/4.02.41.2芯片电感需求量亿颗1.22.44.08.015.423.534.50202320242025E2026E2027E2028E2029E资料:Trend

Force、Nvidia、龙磁科技,铂科新材,中信建投资料:Trend

Force、Nvidia、龙磁科技,铂科新材,中信建投19AI趋势下芯片电容市场爆发

GPU算力需求增加,MLCC成为保障高算力设备稳定运行的关键组件。GPU、CPU的供应前端面临多路电源转变,AI服务器采用的CPU、GPU、TPU等高性能IC在进行高运算时,会瞬时发生大的电流变化,超高容MLCC将最大程度减少电压下降,快速补偿电流波动,提高电源稳定性。服务器供应电流是48V或54V的直流电源,GPU、CPU的供应电流主要是12V或者更高,中间需要多路电源转变,电容发挥稳定电压作用。

AI兴起,小体积、高容值MLCC是关键,未来需求量快速增长。随着晶体管数量的迅速增加,高算力设备的功耗也不断攀升。以英伟达为例,GB

200晶体管数量达到2000亿,工作功率大幅提升,GPU电路板上的电容数量因此激增,由于PCB板载空间有限、功率大幅提升、散热要求更高,为适应AI应用带来的电路改变,MLCC产品的变化主要体现在4方面:高算力GPU/CPU需要的电容数量更多;功耗增加导致电路系统温度升高,电容需具备更高的耐温性;高功率条件下,大电流带来大纹波,对电容的低等效串联电阻(ESR)提出了更高要求;GPU/CPU的高频工作特性要求电容具有低等效串联电感(ESL)及高自谐振频率(SRF)。

MLCC性能提升,对制作MLCC的粉体而言,要求更细、比表面更大,以满足小体积大容量的高容值电阻的要求。

AI服务器拉动小型化、高容值MLCC需求量快速增长。与传统服务器相比,AI服务器MLCC用量显著增加,三星电机数据显示,AI服务器功率消耗是普通服务器的5~10倍,使用的MLCC用量可以达到2.8万颗/台,是普通服务器的13倍,容量达600,000μF,是传统服务器的27倍。另据台湾中时新闻网报道,英伟达NVL36服务器需求MLCC用量高达22-24万颗/台,NVL72则需求量高达44万颗/台,未来AI服务器用高端MLCC需求将持续井喷。表:AI服务器需求MLCC用量(亿颗)450040004193表:AI服务器需求量倍增3500300025002000150010005003015217915831155847资料:三星电机,中信建投23131946302022

2023

2024

2025E

2026E

2027E

2028E

2029E

2030E资料:Trend

Force,三星电机,博迁新材,中信建投20AI趋势下芯片电容市场爆发

MLCC产业链上游为原材料供应,主要包括陶瓷粉末、电极材料等;中游为MLCC产品制造,包括配料、流延、叠层、烧结、测试等全流程工艺技术体系;下游为应用领域,主要涵盖了消费电子、汽车电子、通信、军工等领域。

上游原材料粉体是MLCC核心之一,壁垒高。上游原材料中,主要包含两类主要原材料,

一类是陶瓷粉(钛酸钡、氧化钛、钛酸镁等),另一类是内电极金属粉体(镍)与外电极金属粉体(铜)。陶瓷粉料是MLCC核心材料之一,其质量和配比对MLCC性能影响较大,目前高端陶瓷粉料技术主要由日本和美国厂商主导,国内厂商正加速突破。电极材料则包括金属电极和导电浆料,纳米镍粉、铜粉是MLCC电极重要材料,对MLCC的电性能有重要影响。

纳米镍粉生产壁垒高,细粒级纳米镍粉生产商稀缺。MLCC小型化、高容量、高频率等趋势,要求镍粉球形度好、振实密度高、电导率高、电迁移率小、对焊料的耐蚀性和耐热性好、烧结温度较高、与陶瓷介质材料的高温共烧性好等诸多细节指标。目前全球范围内电子专用高端金属粉体材料行业内生产企业数量有限,全球范围内能工业化量产MLCC用镍粉企业较少,除了国内博迁新材外其余均为日本企业,博迁新材规模量产的-80nm级别镍粉已经达到全球顶尖水平,高端电子浆料用新型小粒径镍粉相关产品已成功导入海外主要客户的供应链体系并形成批量销售,进入三星电机、中国台湾华新科、中国台湾国巨等知名

MLCC

生产商产业链。

AI推动高端MLCC及高端纳米镍粉需求增长,纳米镍粉粒径需求越来越细。电子元器件行业核心驱动因素在于终端市场的产品迭代和需求升级,每一轮产品升级都带动了MLCC需求的不断扩大。AI浪潮下,GPU、CPU对高算力需求迫切,小体积、大容量MLCC需求快速增长,对纳米镍粉的需求越来越细。

MLCC成本主要由陶瓷粉料、内电极、外电极、包装材料、人工成本、折旧设备及其他构成。其中,上游粉体材料是MLCC产品制造的主要成本,陶瓷料在低容MLCC中占比20%-25%,高容MLCC占比35%-45%。内电极和外电极金属材料成本分别占到MLCC的5%-10%。图:纳米镍粉用于制作MLCC内电极表:MLCC成本构成图:MLCC生产工艺流程图:MLCC用于电路板成本结构低容MLCC20%-25%5%高容MLCC35%-45%5%-10%5%-10%1%-5%陶瓷料内电极(镍/银/钯)外电极(铜/银)包装材料5%20%-30%10%-20%20%-35%人工成本10%-20%20%-30%设备折旧及其他资料:中国产业信息网,中信建投资料:中国产业信息网,中信建投资料:中商研究院,中信建投资料:村田制作所,中信建投端侧AI化将显著拉动小型化、高容值MLCC需求

AI

PC需求持续增长,持续推动高端MLCC需求。一台传统笔记本电脑大约需要1000个MLCC,以英特尔为代表的CPU厂商正在力推具备AI算力的PC产品,新增了如神经处理单元(Neura

l

Processing

Unit,NPU)的功能模块,以提高整体运算性能,需要增加NP

U供电线路,每台PC需要增加约90~100个MLCC。主要采用高通公版设计的Windows

on

Arm(WoA)笔记本电脑尽管采用以低能耗见长的精简指令集(RISC)架构(ARM)设计,但其整体MLCC用量却高达1160至1200颗,这一数字与英特尔高端商务机型相当,其中高容值MLCC的用量占比高达八成。根据村田数据,AI

PC单机MLCC用量提升40-60%,达到1400-1600颗。

预测2030年AI

PC用MLCC约4000亿颗,年均增速超30%。据Canalys数据预测,2024全球A

IPC出货量将达到4800万台,占个人PC总出货量的18%,预计到2025年,AIPC出货量将超过1亿台,占PC总出货量的40%,到2028年AIPC出货量将达到2.05亿台,渗透率达到约70%。2030年,预计全球AI

PC用MLCC约4000亿颗,年均增速超30%。

AI手机需求高增,预计2030年用量超1.6万亿颗,年均复合增速超30%。据村田数据显示,4G高端手机MLCC用量为900-1100颗,而5G高端手机中用量将提升到990-1320颗,AI手机单机用量将提升20%,达到1300-1500颗。根据Canalys报告,预计2024年全球16%的智能手机出货为AI手机,到2028年,这一比例将激增至54%;IDC预测,到2025年,全球市场中三分之一的手机将成为新一代AI手机,中国市场到2028年AI手机占比可能超过80%。受消费者对AI助手和端侧处理等增强功能需求的推动,AI手机渗透率快速增长,Canalys预计这一转变将先出现在高端机型上,然后逐渐为中端智能手机所采用,手机用MLCC逐步转向高端。图:

AI

PC出货量及渗透率(亿台)图:个人电脑MLCC用量预测(亿颗)图:AI手机出货量及渗透率(亿台)图:手机MLCC用量预测(亿颗)22000AI手机MLCC用量3.02.52.01.51.00.50.0100%

50001680%70%60%50%40%30%20%10%0%AI

PC

MLCC用量普通

PC

MLCC用量AI手机出货量AI手机渗透率普通智能手机出货量AI

PC出货量渗透率2000018000160001400012000100008000

102736000普通手机MLCC用量5945648141210867.5%644980%60%40%20%0%4000300020001000073163.5%895772454.8%11018706131347.3%889972811545154539.1%988853933958204672035983129630.0%1647622802852607149782086117024975216.0%4000220002544002024

2025E

2026E

2027E

2028E

2029E

2030E2024

2025E

2026E

2027E

2028E

2029E

2030E资料:Canalys,中信建投资料:Canalys,中信建投资料:Canalys,IDC,中信建投资料:Canalys,中信建投性能提升核心在于材料,材料器件一体化公司构筑核心壁垒,快速响应尖端需求被动元件垂直整合:材料-元件-解决方案的一体化布局

被动元件领域的垂直整合模式具有独特的特点,主要体现在材料技术的掌控上。日本是全球被动元件领域的领导者,村田、TDK、太阳诱电等企业均以磁性材料为起点,通过垂直整合与技术深耕,占据全球高端电感市场的半壁江山。其发展路径展现出“材料奠基、技术迭代、应用拓展”的清晰逻辑,为国内企业提供了宝贵借鉴。

随着AI算力、新能源汽车和储能行业的蓬勃发展,国内磁材企业也纷纷将业务延伸至下游被动元件领域。与传统电感企业相比,这些软磁企业通过材料-元件-解决方案的一体化布局,实现了从材料源头到应用场景的全链条创新。•材料层面的突破使得软磁企业能够针对特定应用场景开发定制化解决方案。材料基因决定性能突破全产业链协同增效•相比传统电感企业需要外购磁材,软磁企业可以针对特定应用优化材料配方,从而实现产品性能的全面提升。•“磁粉-粉芯-电感”的一体化布局带来显著的成本优势。通过磁粉自产而非外购,企业能够更好地控制生产成本,提升盈利能力。•产业链协同还加速了产品研发和迭代速度。•一体化布局提升了企业的市场响应速度。快速响应与优质方案•与传统电感企业相比,软磁企业对材料特性的理解使其能够提供更全面的解决方案。被动元件垂直整合:国外材料器件一体化的历史经验

村田自1944年以氧化钛陶瓷电容器起家,凭借对磁性材料的持续研发,逐步延伸至电感、滤波器等多元器件领域。2024年其电感业务营收达18-20亿美元,占总营收的20%-22%。其核心优势体现在三个方面:一是材料技术壁垒,通过掺镧铁氧体等特种材料研发,实现电感在极端温度环境下的稳定性,占据全球高频电感30%的市场份额;二是垂直整合能力,从磁性粉末制备到电感封装测试全流程自主可控,配合马来西亚、中国等地的产能布局,实现72小时快速交付;三是并购拓展边界,通过收购Sychip、Peregrine半导体等企业,将电感与射频模块集成,为、丰田等大客户提供EMC整体解决方案,绑定率超40%。

村田的发展印证了“材料创新-器件升级-系统方案”的进阶路径,其“以市场需求为导向”的产品策略尤为关键——从晶体管收音机时代的陶瓷滤波器,到5G时代的毫米波电感,始终围绕终端需求推动材料与器件的协同迭代。图:村田被动元件产品资料:村田官网

,中信建投被动元件垂直整合:国外材料器件一体化的历史经验

TDK以材料技术为核心,从磁性材料研究出发,经过近90年的发展与垂直整合,在电子元器件领域形成独特的“材料+器件+系统”竞争优势,2024年电感业务营收达16-18亿美元,年增8%-10%。其差异化路径体现在:一是工业级市场深耕,推出的NLCV系列薄膜电感在数据中心电源模块领域市占率达35%,凭借高功率密度特性满足AI服务器的供电需求;二是车规级产能扩张,通过马来西亚新厂投产将车规级电感产能提升50%,其电感产品通过AEC-Q200认证,进入丰田、大众等整车厂供应链;三是系统方案输出,提供“电感+电容+磁珠”的集成解决方案,在服务器电源模块市场捆绑销售率达65%,显著提升客户粘性。图:TDK发展历史图:TDK相关产品资料:TDK官网

,中信建投资料:TDK官网

,中信建投被动元件垂直整合:国外材料器件一体化的历史经验

最近几年,TDK被动元件产品营收稳定提升,而磁性应用制品营收略微收缩。在利润表现上,被动元件的表现更为突出,2023年曾贡献了全部利润的57%。

2025财年,公司电容器(陶瓷电容器、铝电解电容器和薄膜电容器)销售额为2342.6亿日元,同比下降4.4%。电感器件的销售额为2042.82亿日元,同比增加3.7%。其他被动元件(高频部件和压电材料部件/电路保护部件)销售额为1210.97亿日元,同比下降2.0%。图:TDK被动元件及磁性应用制品营业收入(财年为上年4月-当年3月)图:TDK被动元件及磁性应用制品营业利润(财年为上年4月-当年3月)亿日元亿日元被动元件磁性应用制品被动元件磁性应用制品10000900080007000600050004000300020001000025002000150010005000-500-10002011

2012

2013

2014

2015

2016

2017

2018

2019

2020

2021

2022

2023

2024

20252011

2012

2013

2014

2015

2016

2017

2018

2019

2020

2021

2022

2023

2024

2025资料:TDK年报

,中信建投资料:TDK年报

,中信建投相关公司及投资建议龙磁科技:芯片电感的材料器件一体化布局,实现0到1到N跨越式发展

芯片电感从0到1蜕变,订单逐步落地。公司自2021年起布局电感业务,2025年1月成功中标某国际客户高端芯片电感产品,中标金额为2300万元。随着后续验证陆续落地,芯片电感产品开始批量出货,用于AI服务器三级供电的垂直供电模块,相较于传统的平面供电方案,垂直供电优势显著。产业需求升级,公司产品达到业内先进水平。2025年为公司芯片电感客户验证元年,实现多家国际知名半导体厂商的同步认证。同时公司实现电感产品升级,

研发出TLVR电感,TLVR电感专为低电压、大电流环境设计,主导了AI芯片、超算等领域高密度电源方案的创新方向,价值量是传统non-TLVR电感的2-3倍。公司目前已有多款TLVR样品送交客户测试,也取得了客户的小批量订单。

自上游粉体开始的一体化布局优势得以体现。龙磁科技长期坚持产业链一体化布局,原材料粉体自给、核心配方自研、磁芯电感自生产。金属磁粉芯的原材料质量、纯净度和配方都需要长期的技术积累和反复的实验设计才能调优,属于高度依赖Know-How的领域。一体化布局可以实现原料自有保障、盈利能力最大化,同时基于粉体技术的积累,巩固配方壁垒,同时可以实现对终端客户的快速响应,满足客户不断迭代的需求,更受终端客户青睐。表:公司一体化布局优势突出29资料:龙磁科技,中信建投龙磁科技:铁氧体永磁龙头,替代需求有望打开市场空间

主业稳健成长,全球最具竞争力的磁性材料及器件制造商。公司是国内最大的高性能永磁铁氧体湿压磁瓦生产企业之一,目前已经建成4.

5万吨产能,其中越南基地净利率水平高达30%以上,2024年产能7千吨,2025年逐步达到1.2万吨/年,未来计划在越南新建1万吨产能并配套2.5万吨预烧料。建成后公司产能有望达到6万吨,高性能产品产能规模超过日本TDK达到全球最大。

铁氧体永磁湿压磁瓦主要用于微特电机,终端客户是汽车和家电。永磁铁氧体是下游微特电机的核心部件,常用于控制系统中,终端主要用于汽车、摩托车、家用电器、电动工具和健身器材等行业,按终端应用领域分类,汽车消费约占60%,家电占33%,其他7%。公司目前终端客户结构中约75%是汽车行业,客户群体高端,主要面向世界500强企业,众多国内外知名的公司成为公司稳定的客户。随着汽车自动化、智能化升级,单车用微特电机数量明显增加,铁氧体永磁湿压磁瓦需求稳步提升。

高牌号产品15材实现突破,在部分领域实现稀土磁材替代。公司已经完成了15材产品的量产,可以在部分领域替代稀土永磁产品。图:铁氧体永磁在汽车中的应用30资料:龙磁科技,中信建投博迁新材:MLCC纳米镍粉龙头,受益AI需求高速增长

中国MLCC用纳米镍粉领军企业。公司是全球领先的纳米级电子专用高端金属粉体材料规模化生产商,中国纳米材料研发与产业化应用的开拓者之一。公司纳米镍粉主要应用于MLCC的生产,AI浪潮下对MLCC提出了小型化、高容值的需求,高性能MLCC的实现必须提升材料性能,细粒级粉体是实现MLCC高性能化的重要路径。

纳米镍粉行业壁垒高,公司80nm镍粉全球顶尖水平。全球纳米镍粉生产商稀缺,能够量产200nm以下镍粉的企业少,除公司外主要分布在日本,公司量产的80nm镍粉已经达到全球顶尖水平。此外,公司还作为唯一起草单位,起草与制定了我国第一项电容器电极镍粉行业标准(标准编号:YS/T1338-2019)。公司未来产能被头部企业锁定,业绩有望翻倍增长。公司目前镍粉产能145条线,产能约3000吨(原粉计)。公司与某头部公司(X公司)签订战略协议,未

来每年向X供应镍粉年均约1227-1471吨,公司产能基本被该客户锁定,对应产品营收9.7~11.3亿元,镍粉营收接近翻倍(2024年镍粉收入6.85亿元)。此外,2024年公司镍粉平均售价48.2万元/吨,未来供应X公司产品平均价格在77-79万元/吨,因此未来供应产品相比过去价值量更高、毛利率更高、盈利能力更强。为了顺应未来超细粉体需求的快速增长,以及X公司、其他客户的供应稳定,公司新增1800吨产能(原粉计),有望于2025年内投产,2026年逐步释放产能。头部客户的战略协议有望保障公司未来满产满销,业绩顺利释放。图:纳米镍粉用于制备MLCC内电极图:博迁新材纳米镍粉产品31资料:博迁新材,中信建投资料:博迁新材,中信建投博迁新材:光伏用铜粉及纳米硅粉有望突破,未来成长可期以铜代银,技术突破或带来广阔市场空间。纳米硅粉,下一代负极材料。银价上涨,降银耗及贱金属替代成为行业技术攻关重点,公司在多场景、多产品探索低银、无银路径。公司银包铜粉已经量产,产品抗氧化性好、振实密度高、电导率高,电迁移率小,分散性好。公司银包铜粉产品已完成主流产品体系向更低银含量系列迭代,同步扩充适配多样化应用场景的银包覆产品矩阵。以铜代银,无银化技术合作研发,配合下游开发。易氧化性是光伏铜浆铜粉路线的主要技术难点,公司PVD工艺铜粉,生成的球形粉体粒径均匀,分散性好,表面光洁致密,缺陷少,在密闭氨气环境下进行且不使用还原剂或添加剂,能够减少氧化源,更抗氧化,更好满足下游无银化趋势,未来有望产业化落地,技术突破实现市场需求扩容。硅碳负极可轻易突破能量密度瓶颈,是下一代高效能锂电负极材料。石墨负极克容量已接近理论极限,硅基材料更能满足未来高能量密度电池要求。石墨理论克容量为372mAh/g,目前高端石墨量产克容量已达到360mAh/g以上,进一步提升的空间不大,而硅材料的高温理论克容量为4200mAh/g,超出石墨类负极十倍有余。昊铂电池研发部负责人李进表示,把基于先进硅负极的全固态电池能量密度由300wh/kg提升到350wh/kg的一个水平,能够在相同重量下达到3倍电量。图:HJT电池优势图:HJT电池成本下降关键因素图:硅基材料比石墨有更大的比容量图:固态电池技术研发路径图资料:CPIA,中信建投资料:CPIA,中信建投资料:MDPI,中信建投资料:四川新能源汽车创新中心,中信建投铂科新材:芯片电感继续加码释放潜力

三条增长曲线同步发力,芯片电感业务表现亮眼,成长性高。公司主要产品包括金属软磁粉、金属软磁粉芯及芯片电感等磁元件。公司产品及解决方案被广泛应用于光伏发电、新能源汽车及充电桩、数据中心(UPS、服务器电源、GPU芯片电源)、AI、智能驾驶、储能、通讯电源、变频空调、消费电子、电能质量整治(有

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论