电子行业2026年度策略报告:云端共振算存齐飞_第1页
电子行业2026年度策略报告:云端共振算存齐飞_第2页
电子行业2026年度策略报告:云端共振算存齐飞_第3页
电子行业2026年度策略报告:云端共振算存齐飞_第4页
电子行业2026年度策略报告:云端共振算存齐飞_第5页
已阅读5页,还剩16页未读 继续免费阅读

付费下载

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

目录AI算力:全球基建浪潮高增核心产业链全面受益 6AI大模型你追我赶,全球CSP加大CapEx投入 6海外链:GPU与ASIC共振关注服务器与PCB等环节价重塑 8国产链:软硬解耦加速AI算力落地,产业链上下游共同受益 AI存力:周期回升叠加I需“超级周期”趋势形成 14涨价周期:原厂控产效果显现,新一轮上行周期确立 14DRAM:HBM产能挤兑效应显著,服务器高端存储加速提升 15NANDFlash:大容量eSSD求快速增长,HDD替代进程加速 17端侧AI:AI重塑终端硬件形,智能终端迎来革新奇点 19AI手机:换机周期开启,渗透率快速攀升 19AI眼镜:杀手级应用初现,SoC厂商大有可为 20机器人:具身智能奇点临近,产业链机遇涌现 21风险因素 23表目录表1:英伟达GPU芯片roadmap 9表2:英伟达AI服务器系统级 10表3:华为昇腾芯片roadmap 11表4:预计4Q25DRAM和NANDFlash价格继续大幅提升 15表5:NearlineHDD与QLCSSD重点比较 17图目录图1:Gemini3DeepThink在AI基准测试中表现出色 6图2:Gemini3Pro展现出更出色的长期规划能力 6图3:谷歌Gemini3Pro智指数登陆榜首 6图4:中国AI大模型正缩小美国之间的差距 7图5:北美CSP资本支出(位:亿美元) 7图6:中国CSP资本支出(位:亿美元) 7图7:2026年CSP资本支出计或增长至6000亿美元以上 8图8:AI服务器出货量预测单位:百万台) 8图9:英伟达预计26年底前Blackwell-Rubin出货量达2000万颗 9图10:谷歌TPUIronwood力大幅提升 10图11:MetaMTIAv2加速器 10图12:RubinUltra使用Kyber架构或采用正交背板 11图13:首批通过DeepSeek配测试名单 12图14:晶圆代工厂制程节路线图 13图15:芯原股份提供一站式片定制服务和IP授权服务 13图16:DRAM合约平均价(位:美元) 14图17:DRAM现货平均价(位:美元) 14图18:NANDFlash合约平均价(单位:美元) 14图19:NANDFlash现货平均价(单位:美元) 14图20:DRAM内存条价格(位:美元) 14图21:NANDFlashWafer价(单位:美元) 14图22:Nvidia和AMD的AI芯片所使用的HBM升级趋势 15图23:三大DRAM原厂HBM产能(单位:kwpm) 16图24:全球服务器内存模组货量 16图25:AI推理推动SSD需增长 17图26:单台手机NANDFlash平均容量增长趋势 18图27:单台PCNANDFlash均容量增长趋势 18图28:服务器NANDFlash求增长 18图29:AISSD位元出货渗透提升 18图30:全球智能手机出货量 19图31:全球AI手机渗透率续提升 19图32:全球AI眼镜季度销量 20图33:中国AI眼镜季度销量 20图34:全球AI眼镜年度销预测 20图35:小米AI智能镜BOM表 21图36:特斯拉Optimus机器人 21图37:宇数机器人UnitreeH2 21图38:蓝思智能机器人永安区投产 22AI算力:全球基建浪潮高增,核心产业链全面受益AI大模型你追我赶,全球CSP加大CapEx投入谷歌发布Gemini3成为新一代大模型标杆,ScalingLaw再次得到强化。谷歌Gemini3Gemini3凭借百万级上下文窗口和DeepThinkNanoBananaPro3ProAgentUIScalingLaw图1:Gemini3DeepThink在AI基准测试中表现出色 图2:Gemini3Pro展现出更出色的长期规划能力oogle oogle全球AI歌Gemini3ProAIAIKimiAI图3:谷歌Gemini3Pro智能指数登陆榜首rtificialAnalysis图4:中国AI大模型正缩小与美国之间的差距rtificialAnalysis北美巨头与国内大厂在AICSPAIAI斜。与此同时,随着大模型商业化进程的加速及自研训练需求的释放,国内云厂商的投资意愿也显著回暖,正在走出调整期并重回增长轨道。展望未来,在中美两大市场需求的共振下,AI算力竞赛将持续深化,这为全球CSP资本开支维持长期上行趋势提供了坚实的逻辑支撑。图5:北美CSP资本支出(单位:亿美元) 图6:中国CSP资本支出(单位:亿美元)3,000

Google Microsoft Meta Amazon Oracle

250

阿里巴巴 腾讯 百度2,5002,0001,000

2001501005002018

2019

2020

2021

2022

2023

2024

-2018

2019

2020

2021

2022

2023

2024loomberg loomberg2026年CSP资本支出合计或增长至6000亿美元以上,算力迈入新一轮结构性成长周期。e上修5年全球八大主要SP65612026CSPs6000AIAIServerGPU/ASICODMAI期。图7:2026年CSP资本支出合计或增长至6000亿美元以上Capex(十亿美元)Capex(十亿美元)YoY60050040030020010002021 2022 2023 2024 2025E

70%60%50%40%30%20%10%0%-10%rendForce 2025.11)全球AI基建CapExAI2026CSPAIAIGartner年全球AI1602025/2026年将增长至200万/240万台,同比增长24%/17%。图8:AI服务器出货量预测(单位:百万台)artner,世界先进公司官海外链:GPU与ASIC共振,关注服务器与PCB等环节价值重塑英伟达作为AI算力的领军者,其产品迭代节奏显著加快,持续引领行业性能天花板。从HopperBlackwellGPUHBM26H2推出RubinGPURubinGPU由两颗Reticle50PFLOPSFP4288GBHBM4RubinNVL1443.6Exaflops的FP41.2ExaflopsFP8较GB300NVL72提升约3.3倍。英伟达计划在27H2推出更高阶的RubinUltraNVL576平台,将进一步把性能提升至15Exaflops。表1:英伟达GPU芯片roadmap202220232024202520262027HopperBlackwellRubinAcceleratorH100(SXM)H200B200/GB200GB300(Ultra)B300(singledie,B300A)VR200VR300(Ultra)GPUTDP(W)700700700/12001,4006001,8003,600FoundryNode4N4NPN3P(3NP)LogicDieConfiguration1xReticleSizedGPU2xReticleSizedGPU2xReticleSizedGPU,2xI/Ochiplet4xReticleSizedGPU,2xI/OchipletFP4PFLOPs-Dense(perPackage)410154.633.366.7HBM80GBHBM3141GBHBM3E192GBHBM3E288GBHBM3E144GBHBM3E288GBHBM41024GBHBM4EHBMStacks5684816HBMBandwidth3.35TB/s4.8TB/s8TB/s4TB/s3TB/s32TB/sPackagingCoWoS-SCoWoS-LCoWoS-LSerDesspeed(Gb/suni-di)112G224G224G224GNvidiaCPUGraceVera

Blackwell+Rubin至26年底预期出货2000GTCDC20252026Blackwell与RubinGPU总出2000Blackwell与Rubin5000比而言,上一代Hopper架构芯片在整个生命周期内仅出货了400万块。图9:英伟达预计26年底前Blackwell-Rubin出货量达2000万颗

出货量(万颗) 销售额(亿美元,右轴

60005000400030002000100002023-2025Hopper

02025-2026Blavidi大模型厂商你追我赶,推理需求提升推动ASIC芯片需求增长。LLM推理可以分为预填(Pl、译码Dcod)两个阶段,PilDecode阶段则需要高带宽、低延迟的存储器,两个阶段对芯片的要求侧重不同。目前市场上的AI芯片(多数是GPU),通常采用一体适用的设计,也就是用同一颗芯片来跑完Prefill和Decode两个阶段,造成了一定的资源浪费。为顺应推理需求增长,各大CSP积极开发自研ASIC,考量成本效益与高能效比。其中其中Google于2025年4月份推出了首款适用于AI推理时代的第7代TPU-Ironwood,Meta的MTIA2同样也已于2025年第三季量产。图10:谷歌TPUIronwood算力大幅提升 图11:MetaMTIAv2加速器oogle 东AI服务器架构升级,关注ODM、PCBAIGPU2024GB200NVL72Oberon2025OberonGB300NVL722026OberonRubinNVL14427RubinNVL576有望升级为KyberODMAIODMAI表2:英伟达AI服务器系统升级202220232024202520262027MaximumsystemdensityNVL8NVL72144computechiplets72GPUsNVL16NVL144144chiplets72GPUsNVL576576chiplets144GPUsFormFactorSupportedHGXHGX,OberonHGX,Oberon,KyberofGPUPackages872721672144ofGPUdies814414416144576ScaleuplinksUBB(PCB)CopperBackplaneUBB(PCB)CopperBackplanePCBBackplaneAggregateFP4PFLOPs(Dense)327201,080742,3989,605AggregateHBMcapacity14TB14TB14TB21TB64TB21TB147TBAggregateHBMbandwidth27TB/s38TB/s576TB/s576TB/s64TB/s936TB/s4,608TB/semianalysisRubinGPUSwitchSwitchtrayMidplaneCX9/CPXPCB(SignalRubin平Switch(Low-Dk2+HVP)和24层DIile与XCX9(lss+HV4104层。这让单台服务器的PCBRineTPUV7、等ASICAI服务器同样导入高层HDIDk图12:RubinUltra使用Kyber架构或采用正交背板emianalysis国产链:软硬解耦加速AI算力落地,产业链上下游共同受益AICSPAIGPUAI昇推出昇910C26Q1950PR26Q4昇950DT27Q496028Q4昇970表3:华为昇腾芯片roadmapAscend910CAscend950PRAscend950DTAscend960Ascend970发布时间2025Q12026Q12026Q42027Q42028Q4微架构SIMDSIMD/SIMTSIMD/SIMTSIMD/SIMT数值类型FP32/HF32/FP16/BF16/INT8FP32/HF32/FP16/BF16/FP8/MXFP8/HiF8/MXFP4FP32/HF32/FP16/BF16/FP8/MXFP8/HiF8/MXFP4FP32/HF32/FP16/BF16/FP8/MXFP8/HiF8/MXFP4互联带宽784GB/s2TB/s2.2TB/s4TB/s算力800TFLOPSFP161PFLOPSFP8,2PFLOPSFP42PFLOPSFP8,4PFLOPSFP44PFLOPSFP8,8PFLOPSFP4内存128GB,3.2TB/sAscend950DT:144GB,4TB/sAscend950PR:128GB,1.6TB/s288GB,9.6TB/s288GB,14.4TB/s智DeepSeek-V3.1使用UE8M0FP8Scale的参数精度,国产AI芯片迎接战略性机遇。DeepSeek发布的V3.1模型使用了UE8M0FP8Scale的参数精度,是针对即将发布的下一代国产芯片设计的。UE8M0是MXFP8路径里的缩放因子,其优势包括缩短时钟关键路径;指数表容纳跨度大,为后续块缩放提供充足空间;在保持8bit张量精度的同时大幅减少信息损失。我们关注到,目前多家国产AI芯片厂商的下一代产品都或将支持FP8计算,这表示国产AI正走向软硬件协同阶段,或能实质性减少对海外算力的依赖,我们认为,V3.1的发布为国产AI芯片产业链带来了战略性机遇,AI芯片替代进程有望提速。图13:首批通过DeepSeek适配测试名单国信通FinFETGAA(过Chiplet(小芯片)架构和先进封装技术提升系统级性能,已成为明确的技术路径。图14:晶圆代工厂制程节点路线图rendForce 2024.3)国内IP授权及芯片定制服务商显著受益于系统厂商造芯的浪潮。随着互联网大厂及系统厂商纷纷涉足自研芯片,对上游IP核及设计服务的需求激增。以芯原股份为代表的一站式芯图15:芯原股份提供一站式芯片定制服务和IP授权服务原股份公AI存力:周期回升叠加AI需求,超级周期趋势形成涨价周期:原厂控产效果显现,新一轮上行周期确立DRAM和NANDFlash价格步入上行DRAMNANDFlash2026中在HBM图16:DRAM合约平均价(单位:美元) 图17:DRAM现货平均价(单位:美元)DRAM:DDR48Gb(1Gx8)2666MbpsDDR416Gb(2Gx8)2666Mb30 DDR34Gb512Mx81600MHzDRAM:DDR48Gb(1Gx8)2666MbpsDDR416Gb(2Gx8)2666Mb2010图18:NANDFlash合约平均价(单位:美元) 图19:NANDFlash现货平均价(单位:美元) 56MBx8MLC64Gb8GBx8MLC32Gb4G3DTLC256Gb128Gb16Gx8MLC6 85 764 53 42 321 12022-012022-042022-072022-102023-012022-012022-042022-072022-102023-012023-042023-072023-102024-012024-042024-072024-102025-012025-042025-072025-10DDR4SODIMM8GB2666MHz DDR4UDIMM8GB2666MHzDDR4RDIMM16GB3200MHz128GbTLC512GbTLC256GbTLC1Tb图20:DRAMDDR4SODIMM8GB2666MHz DDR4UDIMM8GB2666MHzDDR4RDIMM16GB3200MHz128GbTLC512GbTLC256GbTLC1Tb2509200 87150 5100 4250 322022-012022-042022-072022-012022-042022-072022-102023-012023-042023-072023-102024-012024-042024-072024-102025-012025-042025-072025-102022-012022-042022-072022-102023-012023-042023-072023-102024-012024-042024-072024-102025-012025-042025-072025-10随着AI20254Q25DRAM18%-23%HBMDDR5NANDFlashSSD4Q255%-10%3Q25 4Q25F表4:预计4Q25DRAM和NANDFlash价格继续大幅提升3Q25 4Q25FTotalDRAM

ConventionalDRAM:up10%~15%HBMBlended:up15%~20%

ConventionalDRAM:up18%~23%HBMBlended:up23%~28%NANDFlash up3%~8% up5%~10%rendForceDRAM:HBM产能挤兑效应显著,服务器高端存储加速提升HBM作为AI算力的加油站,其技术迭代与产能扩张是当前存储市场的主旋律。Nvidia及AMD的新一代AI芯片对显存带宽的需求呈指数级增长,推动HBM从HBM3向HBM3e及HBM4快速演进。观察Nvidia和AMD的产品路线图,HBM3e12hi及后续HBM4将成2026GPUHBM80GB288GBTSV图22:Nvidia和AMD的AI芯片所使用的HBM升级趋势rendForce 2024.9)三大原厂积极扩产HBM,产能挤兑效应或将导致通用DRAM供应紧张。为了抢占高利润的HBMSKHynixMicronHBMHBM耗量是同容量DDR5BaseDie置换效应极易挤占通用DRAMHBMDDR52026图23:三大DRAM原厂HBM产能(单位:kwpm)800

TSV

其他DRAM产能1201701201701201502024202520242025252024452025三星 SK海力士 美光4000rendForce服务器内存从DDR4向DDR5切换的进程加速,高密度模组需求旺盛。在服务器端,随着IntelSapphireRapids/EmeraldRapidsAMDDDR525R5的市场渗透率或将超过5。此外,AI64GB/128GBRDIMMDRAM图24:全球服务器内存模组出货量若斯特沙利文,澜起科技公NANDFlash:大容量eSSD需求快速增长,HDD替代进程加速AIQLCeSSDAIAI创造的庞大数NearlineHDD(SSDTrendForce,QLCSSD2026HDD规划扩大产线,无法及时满足AI刺激的突发性、巨量储存需求。目前NLHDD52周以上,加速扩大CSP表5:NearlineHDD与QLCSSD重点比较产品交付周期每GB平均售价最大容量性能能效(美元)NearlineHDD52周0.01532TB弱较低QLCSSD8周0.05-0.06122TB强较高rendForce注:预测时间2025.9)推理场景下的SSDAIRAGSSDSSD2026图25:AI推理推动SSD需求增长侠公司官PCAIAIPCRAMROMPCNAND512GB/1TB图26:单台手机NANDFlash平均容量增长趋势 图27:单台PCNANDFlash平均容量增长趋势公司官 公司官图28:服务器NANDFlash需求增长 图29:AISSD位元出货渗透率提升0

服务器NAND需求(Exabytes) AI渗透2025E 2026E 2027E 2028E 2029E

0%

AISSD渗透率2023 2024E 2025E 2026

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论