2024年美光科技研究报告:HBM自我突破在AI浪潮中引领重估_第1页
2024年美光科技研究报告:HBM自我突破在AI浪潮中引领重估_第2页
2024年美光科技研究报告:HBM自我突破在AI浪潮中引领重估_第3页
2024年美光科技研究报告:HBM自我突破在AI浪潮中引领重估_第4页
2024年美光科技研究报告:HBM自我突破在AI浪潮中引领重估_第5页
已阅读5页,还剩76页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

2024年美光科技研究报告:HBM自我突破在AI浪潮中引领重估美光的自我突破,在AI浪潮下引领的新一轮估值重估区别于市场观点:我们认为,美光将来到重估的分水岭,估值提升或将是双轮驱动,1)存储行业步入新一轮上行周期,传统DRAM和NAND的ASP回稳及下游需求改善所带来的估值修复;2)同时借助AI浪潮催生的新需求,HBM3E和DDR5营收占比提升带动利润率优化,引领估值突破。我们认为市场低估了存储行业上行周期的持续性和重估能力,以及对美光能如何受益于本轮以AI驱动的周期存在认知差。市场普遍认知到DRAM及NAND两种传统存储产品在24年将出现量价修复,并认为PC出货量将伴随AIPC崛起、下游库存出清以及新一轮换机潮回暖,同时手机市场在24年也将开始复苏。但我们认为,市场忽略了本轮以AI驱动的上行周期的持续性与18年(云计算数据中心搭建和虚拟货币潮)、21年(期间在家办公)两轮周期不同,并低估了内存(特别是HBM)在AI计算里起到的重要作用。另外,市场也普遍认为美光在HBM技术里落后于龙头SK海力士和晶圆代工一体化的三星两家韩系企业,对美光在HBM等高端产线增长及在HBM市场争夺中的定位尚存不确定性,但我们认为,美光1-β制程帮助其HBM3E实现效能优势,其HBM3E已经成功进入英伟达供应链,并有望拓展客户至其他AI芯片,需求能见度高,或将从无到有实现更高的营收弹性。高存储密度和高带宽的特性让HBM成为了AI场景下内存容量和带宽瓶颈的解决方案,减少算力浪费,在训练和推理场景扮演不同角色:1)AI训练的大容量“数据中转站”:训练数据需从SSD等外部储存器分批次(batch)加载进HBM,等待加速器调用,同时,训练过程中的模型参数、正向传播的中间状态(activation)、优化器状态以及反向传播的梯度(gradient)也需存入HBM,方便加速器在计算和优化过程中快速访问和读写。HBM以其大容量、高带宽的特性,减少加速器访问外部储存器次数,降低数据传输延迟,从而提升AI训练效率;2)AI推理的“模型参数仓库”:训练后的数据本质上是一大堆的参数,HBM可容纳更为复杂的模型,方便加速器推理时调用,减少数据搬运时间,提升AI推理效率。作为AI芯片的核心组件之一,HBM的需求能见度高,展望未来,我们认为单卡HBM堆栈数目增多、层数增高和迭代趋势已初见端倪。GTC2024上英伟达发布新一代架构Blackwell及B200GPU,通过搭载8颗HBM3E实现192GB内存容量和8TB/s的带宽,对比上一代H200(6颗HBM3E,内存容量141GB,带宽4.8TB/s)在内存/带宽上提升36.2%/66.67%。除去英伟达,AMD、英特尔和云厂商自研ASIC也呈现相同趋势:1)AMD:2023年6月AMD发布的MI300X搭载8颗12层HBM3实现192GB内存容量和5.3TB/s带宽,对比上一代MI250X(8颗HBM2E,内存容量128GB,带宽3.2TB/s)在内存/带宽上提升50%/65.6%;2)谷歌:2023年12月6日谷歌公布TPUv5p性能参数,配置95GBHBM3,对比上一代TPUv5e(16GBHBM2/2E)在GPT3-175B模型上训练速度提升近50%;3)AWS:2023年12月7日Digitimes援引韩媒DigitalTimes消息,AWS于年度大会re:Invent2023公开的Trainium2芯片搭载4颗12层24GBHBM3,对比上一代Trainium32GBHBM2E容量提升200%;4)英特尔:2024年4月9日英特尔发布Gaudi3,搭载8颗16GBHBM2E,实现3.7TB/s带宽,对比上一代Gaudi2(6颗16GBHBM2E)内存容量提升33%。截至2024年5月12日美光估值为2.60xForwardPB,超过上一轮上行周期(21年,2.0xForwardPB)估值峰值。14年以来美光估值曾经历三次峰值,分别受益于:移动互联网普及(14年,2.8xForwardPB,3.7xTTMPB)、上云趋势带来的服务器需求和加密货币潮(18年,1.7xForwardPB,3.1xTTMPB)以及居家办公带来的短期需求激增(21年,2.0xForwardPB,2.65xTTMPB):(1)2014年:12-14年移动互联网普及带动智能手机和平板电脑销售量快速增长,根据Gartner2015年数据,11-14年全球智能手机销售量同比增长均超28%,CAGR38.2%。下游终端需求带动全球半导体销售额上行,根据WSTS历史数据及DRAMeXchange11-15年每季度统计,本轮上行周期历时约33个月,全球半导体销售额自12Q1谷底波动上升至14Q3峰值,12-14年期间全球半导体销售额涨幅15%,其中DRAM和NAND销售额涨幅均超70%。FY14美光营收164亿美元,同比增长80.3%,FY12-14期间营收增长98.7%,主要系美光收购尔必达(Elpida)迅速扩张DRAM市场份额,以及智能手机和平板电脑出货扩增拉动美光NANDFlash营收增长。(2)2018年:16下半年到18年,企业上云趋势带动服务器需求高速增加,叠加加密货币潮带动的矿机需求,全球半导体行业迎来新一轮上行周期,DRAM及NAND产品领涨显著。根据IDC和Gartner16-18年季度统计数据,16-18年全球服务器出货量和ASP增长带动营收涨幅达56%,18Q4出货量近350万台,同比增长8.5%。根据Coinmarketcap17年12月31日数据,2017年虚拟货币市场总值达5724.8亿美元,全年累计增长3028%,比特币(BTC)价格上涨13倍,一度突破20089美元。以太坊(Ethereum)的数字代币以太币2017年涨幅达111%,其采用名为Ethash的硬内存(memory-hard)算法,要求在挖矿过程中频繁地从一个大型数据集(称为DAG)中读取数据,该操作主要受到内存带宽,加上当时还采用ProofofWork(POW)计算,故拉动GPU和存储的热度提升。根据WSTS历史数据及DRAMeXchange16-19年每季度统计,全球半导体销售额16-18年涨幅38%,其中DRAM和NAND销售额涨幅分别为145%和63%,而本轮上行周期历时约27个月。FY18美光营收304亿美元,同比增长49.5%,FY16-18期间营收增长145.1%,主要系两年间下游需求使得DRAM市场供应紧俏,ASP持续保持高位。(3)2021年:2020年开始的居家办公场景带来短期消费电子产品(智能手机、PC等)需求的快速增长。根据Gartner2019-2023年数据,2021年全球智能手机销售量同比增长6.1%,为19-23年间唯一实现同比增长的年份,而全球PC出货量同比增长20.2%,为19-23年间唯一实现两位数增长的年份。根据WSTS历史数据及DRAMeXchange20-22年统计,全球半导体销售额自20Q3起实现约20个月的连续环比增长,期间涨幅34%,21年全球DRAM/NAND销售额同比增长42%/21%。FY21美光营收277亿美元,同比增长29.3%,其中DRAM营收同比增长38%,NAND营收同比增长14%。本轮短期上行美光增长不及行业,主要系:1)20年底美光DRAM工厂断电、中国台湾地震导致其DRAM产能损失;2)20-21年美光NAND扩产对比三星、铠侠等竞争对手较为保守,同年海力士收购英特尔NAND业务份额赶超美光。带来的短期需求于22下半年见顶,22下半年至23Q3期间消费电子需求疲软,AI等新的增长点尚未成熟,半导体市场处于下行周期。我们认为24年内存行业迈入新一轮上行周期,由AI浪潮驱动,并将受益于AI芯片及AI应用普及所带来的中长期增长,跟14年的逻辑类似,而并非如同加密货币潮和带来的短期需求激增,因此我们认为美光有望借助AI东风,估值应往2014年水平靠拢,甚至突破。我们预计FY24/25/26公司营收分别为251/404/449亿美元,同比为61.3%/61.2%/11.1%。具体而言:DRAM业务:我们预计DRAM业务FY24/25/26营收为178/278/320亿美元,对应同比为62.4%/56.2%/15.1%,主要由HBM的量价齐升带动,叠加AI手机、AIPC和AI服务器的DRAM需求。1)HBM受惠于AI芯片需求和设计进化,美光作为后起之秀,通过1-βHBM3E追赶市场份额:我们认为,随着AI芯片需求的增加和在设计上的进化,更多的HBM将更紧密的搭载在AI芯片周边,在AI训练和推理时增加内存和降低延时。目前,HBM3/3E市场已打破“独供”,由SK海力士、三星和美光三家割据:SK海力士原为英伟达HBM3独供,率先敲定英伟达HBM3E商单,24年3月19日宣布开始8层HBM3E量产,24Q2业绩会公司宣布12层HBM3E将于24Q3完成开发,随即向客户送样;三星于23H2宣布量产HBM3Icebolt(8/12层堆叠)并确认供货AMDMI300系列,随后三星加速产品迭代并积极拓展客户,GTC2024期间展示其12层36GBHBM3E,英伟达CEOJensenHuang会上于三星12层HBM3E旁签下“JensenApproved”,确认该产品正在通过英伟达效能验证,Digitimes24年4月报道三星HBM3E测试已近尾声,最快24Q2开始供货英伟达,相较之前市场预期的24H2提前。相比之下,美光并非HBM3/3E的先行者,公司跳过HBM3直接研发HBM3E,23年7月,美光宣布与台积电3D-Fabric联盟,推出1-β制程的HBM3E,并于24年2月率先宣布实现量产,确认供货英伟达H200并于24年3月22日确认出样12层36GBHBM3E,预期25年量产。通过测算存储厂商HBM产线晶圆投入量和台积电先进封装产量,我们认为24/25年HBM3/3E供需缺口约为5.4%/4.1%。美光作为后起之秀,HBM产能相较SK海力士和三星仍显不足,主要是承接两者溢出的订单。根据FY24Q2业绩会,美光管理层对HBM3E前景乐观,重申24年HBM3E产能已售罄,并正在接受除英伟达之外客户验证。公司目标FY24HBM3E的营收为数亿美元,而DRAM和整体毛利率将于FY24Q3开始改善。相较23年约3-10%的市场份额,公司预计25年HBM的市占率将与其在DRAM的市占率平齐(约20%),将带来较高的增长空间。我们认为通过供应英伟达H200,美光HBM3E现已具有初步客户基础,若能按照计划在FY24-25实现HBM3E扩产和产品验证,进一步满足下游客户需求,将显著受惠于高速增长的HBM市场,并凭借HBM产品更高的ASP带来利润率的优化。2)传统DRAM供应商库存已降低,以DDR5为代表的AI相关内存需求则受惠于AI手机、AIPC和AI服务器渗透率提升带来的商机:根据Digitimes24年3月12日报道并结合美光FY24Q2业绩会信息,DDR5供应较为吃紧,DDR5在24年初仍处于供不应求,24Q1约有3%的供给缺口,伴随存储厂商陆续恢复增产,预期24Q2起缺口收敛至1%,24H2产能将持续开出,伴随DDR5在服务器和终端侧渗透率快速提升,下游需求可望消化新增产能,从而维持DDR5ASP涨势。相较而言,DDR4和DDR3等传统DDR方面,DDR4是23年上游原厂减产的重点,23Q3DDR4仍处于亏损出货状态,尽管下游库存水平逐渐恢复健康,短期内成熟制程产品(如中低端服务器和消费电子产品)需求增长并不强劲,故美光等主要供应商仍不倾向恢复产能,叠加HBM和DDR5需求增长产生DRAM产能排挤,整体将对DDR4和DDR3等传统DRAM保持积极的产能控制。24Q2,短期内受4月3日中国台湾强震对供应链影响,DRAMASP或见较大涨幅,根据Digitimes24年4月15日至17日系列报道,该次地震对美光厂房和基础设施未造成永久影响,单季DRAM供应影响约为4%-6%,鉴于DRAM厂商原先已有24Q2DRAMASP调升10-15%规划,叠加地震影响,24Q2美光DRAM合约价将调涨25%,整体主流DRAM合约价调涨约20%。分应用场景来看来看,PC方面,23年PC库存已基本出清,顺应新CPU机种逐渐转往DDR5的趋势,下游DDR5采购量或将继续上升。叠加微软将于25年10月14日开始停止支持Windows10所带动,以及AIPC的崛起,PCDRAM市场有望进一步迎来复苏。根据IDC24年2月7日预测,AIPC24年出货量约为50万台,2027年则有望突破1670万台,3年CAGR约为222%。整体而言,PC24Q1出货量已基本恢复至19Q1水平,24H1PC市况已经逐步好转,虽然需求大规模增长尚未出现,但24H2PC市场可望迎来进一步复苏。AI服务器方面,我们认为,硬件设备的规模和性能是AI大模型时代的必然要求,CPU+加速器异构带动DDR5和HBM需求高速增长。鉴于目前生成式AI主要以大参数模型路径实行,随着模型数量和所需处理的数据量增长,其训练与推理均需大量的计算能力与存储资源。展望24年,AI基础设施将是重点投入领域,头部云厂商和互联网巨头加大AI领域资本开支,将进一步支撑AI服务器行情。IDC23年12月发布数据显示,23年全球AI服务器市场规模达211亿美元,预计2025年达317.9亿美元,2023-2025年CAGR22.7%。同时,AI服务器自身需要处理一系列密切相关但要求各异的任务,包括数据预处理、模型训练、推理和后处理等,因此需要CPU+加速器异构以灵活面对使用场景。AI服务器搭载的CPU负责系统启动和维护以及系统各组件统筹协作等逻辑,在AI训练和推理中亦涉及数据预处理等通用计算场景。例如,AI训练和推理的原始数据往往参差不齐,需要通过数据清洗、转换、特征工程等一系列流程,最终才能为系统所用,而这些任务涉及大量逻辑运算和内存操作,对处理速度和时延要求较高,因此通常由CPU承担,需要更大带宽、更大容量的内存作为支撑,带动DDR4向DDR5迭代;而如前文所述,HBM在AI训练和推理中同样扮演重要角色,AI服务器的加速器搭配HBM已成标配,逻辑芯片频繁读取片外HBM进行内存调度。根据美光FY24Q2业绩会,一台AI服务器的DRAM容量是通用服务器的6-8倍,因此快速增长的AI服务器需求将带动DRAM需求的高速增长。通用服务器方面,24年或迎来换机潮,产品组合将向DDR5倾斜。根据Digitimes24年2月1日报道,业界预期24上半年服务器需求“淡季不淡”,北美云厂商除了持续采购AI服务器,也开始对通用型服务器进行新一轮采购,加速英特尔EagleStream和AMDGeona等新平台导入,其中以谷歌和微软采购力度较大。根据24年2月YoleIntelligence预测,未来五年内,DDR4份额将进一步被DDR5取代。到2027年,DDR5将占DRAM总出货量的80%以上。AI手机方面,GalaxyS24带动AI手机热潮方兴未艾,端侧AI功能强化对LPDDR5需求。美光FY24Q2业绩会透露AI手机相较传统非AI旗舰机型多出50%-100%的DRAM需求,而鉴于手机功耗限制,因此带动LPDDR5X需求,预测24年手机出货量同比增长3-5%。根据Digitimes23年3月援引IDC预测,2024年全球AI手机出货量或增至1.7亿台,占手机市场出货比重达15%。面向DDR5商机,美光于CES2024上展示基于LPDDR5X的LPCAMM2内存模组,相较DDR5DIMM在带宽和能效表现上更具优势,能更有效解决AIPC和AI手机的内存问题。该款LPCAMM2已获Intel、联想和仁宝等业界支持,预计24上半年投产。我们预计公司的1-β16GBDDR5、LPDDR5X和LPCAMM2作为面向端侧AI的内存方案将显著受益。NAND业务:我们预计NAND业务FY24/25/26营收为69/122/125亿美元,对应营收同比为64.2%/77.1%/2.4%。1)伴随下游客户库存水平正常化,美光对FY24NAND和SSD趋势较乐观。根据BloombergIntelligence22-24年数据统计,NANDASP下降12个月后于23Q2触底,于23Q3开始回升。而根据TrendForce2024年3月报道,供应商正在推动提高NANDFlash的合同价格,24Q1涨幅约为23-28%,Q2NANDFlash采购量将较Q1小幅下滑,但整体市场氛围持续受供应商库存降低,以及减产效应影响,预估24Q2NANDFlash合约价将上涨约13~18%。需求方面,根据公司FY24Q2业绩会,预期未来数年NAND需求CAGR约为21%-23%,而公司计划FY24NAND供给策略维持保守,着力于进一步优化库存,缩短周转天数,预计NAND需求增长将显著高于供给。2)232层NAND布局数据中心SSD、AIPC和大容量智能手机:公司基于232层TLCNANDFlash,分别于2023年5月、10月和12月推出6500IONNVMeSSD、7500NVMeSSD和3500NVMeSSD。其中,6500SSD提供30TB容量,打破QLC和TLC界限,以QLC的价格实现TLC的性能,FY24Q2美光业绩会透露该款SSD营收环比增长逾50%,而7500SSD和3500SSD分别是面向数据中心和用户端的另两款解决方案。Digitimes24年4月26日报道提及,高层QLCNAND在PC中渗透率不断提高,AIPC搭载LLM和图片/影片生成模型,将耗费大量存储容量,同时,由于用户不会立即删除生成的大量图片和视频,带来AIPC所需存储空间显著提升,同时出于降低存储成本考量,QLCNAND导入PC成为趋势。24年4月公司宣布率先量产232层QLCNAND,并推出面向用户端的2500NVMeSSD,现已向PCOEM送样。同时,根据Digitimes24年1月报道,业界预期24年QLCNAND将导入大容量存储的手机新品,随着影像存储需求增加及QLCNAND更低的单位存储成本,iPhone及部分国产手机品牌(如Oppo)已进入大容量1TB机种采用QLCNAND的产品验证阶段。我们预计24-25年AI手机“DRAM+NAND”配合升级趋势和大容量机种陆续上架,有望带动美光NANDUFS3.1(176层NAND)/UFS4.0(232层NAND)需求增长。美光FY24Q2营收和利润均超预期,净利润实现连续5个季度亏损后首度扭亏。美光FY24Q2营收5824百万美元,同比+58%,环比+23%,超彭博一致预期的5354百万美元;Non-GAAP净利润476百万美元,超彭博一致预期的-266百万美元;Non-GAAPEPS0.42美元,超彭博一致预期的-0.24美元。受益于ASP恢复和高阶产品销量提升,美光经调整毛利率为20%,超彭博一致预期的13.6%,环比+19.2pct;经调整净利率为3.5%,实现扭亏,超彭博一致预期的-5.7%,环比+30.3pct。公司指引FY24Q3营收中位66亿美元,超彭博一致预期的60亿美元,毛利率/净利率为26.5%/15.0%,超彭博一致预期的20.9%/4.6%,主要系HBM和DDR5营收贡献将带来利润率持续优化。公司预计24年DRAM需求增速约为15-17%,NAND约为21-23%。FY24Q2美光DRAM营收为4158百万美元,同比+53%,环比+21%,出货量环比低个位数上升,ASP环比上升17-19%;NAND营收为1567百万美元,同比+77%,环比+27%。公司预计24年DRAM需求增长率将为15-17%,NAND将为21-23%。HBM:AI芯片性能催生内存需求,后起之秀美光该如何布局?我们认为,在AI芯片需求强劲的背景下,伴随着英伟达和AMD积极的AIGPU迭代蓝图,以及头部云以及互联网厂商考虑削减TCO、提升研发可控性及集成自身生态圈而积极推进自研芯片(ASIC为主),HBM的容量、效能和功耗要求将不断提升,HBM的需求量将受AI芯片的需求增长拉动。我们预测,HBM产品在24-25年将出现需求缺口,叠加HBM的复杂工艺需求(TSV硅穿孔、键合堆叠和后续以CoWoS封装与AI芯片搭载一起),将带来相对传统DRAM更高的ASP。伴随HBM产品在美光DRAM中营收占比提升,我们预计公司营收和利润率将得到优化。AI芯片存算发展不同步,内存瓶颈催生HBM需求在AI训练场景中,加速器(如GPU)多数利用片外内存,需要频繁读取片外DRAM进行内存调度。一方面,训练数据(如图像、文本和视频)需从SSD等外部储存器经由CPU初步处理,分批次(batch)加载进内存,等待加速器调用。相较于加速器直接从外部存储器调用数据,HBM等内存“中转站”缩短了数据传输的物理距离,同时利用其支持更高速数据传输的性质,提升AI训练效率;另一方面,训练过程中的模型参数、正向传播的中间状态(activation)、优化器状态以及反向传播的梯度(gradient)也需存入内存,方便加速器在计算和优化过程中快速访问和读写。根据AmirGholami21年3月发表的《AIandMemoryWall》,相较模型参数,模型训练的中间状态等需要3-4倍的内存空间,其中正向传播的中间状态为反向传播计算梯度所必须。AI模型训练可视作数据的抽象和压缩,数据量的增大需要提升模型的复杂度(如参数量)来“消化”训练集中包含的信息。鉴于内存在AI训练中的作用,大型AI模型训练基于庞大的数据量,其自身复杂的网络结构亦包含数十亿个参数,对内存容量和带宽提出挑战:1)如果内存不足,加速器调用数据就需要频繁访问传输速率较慢的大容量存储器(如SSD),带来算力浪费和延迟;2)除训练数据外,模型训练的中间状态等信息同样需要存入内存,因此内存不足将限制模型的复杂度上限,从而影响模型性能和迭代;3)“中转站”定位对其与外部存储器和加速器之间的数据传输速率提出要求,HBM作为内存提供更高的带宽,提升存算间通信效率,实现单次更大批量(batchsize)的数据传输,从而降低延迟,并提升算力利用率和训练效率。计算能力与带宽能力之间的差距致使内存容量和带宽难以跟上AI硬件的计算速度,成为限制AI芯片性能发挥的主要瓶颈,即“内存墙”(MemoryWall)。尽管内存容量和带宽在AI训练中地位重要,但AI芯片“存”和“算”的性能提升并不同步。根据AmirGholami发表的《AIandMemoryWall》,2018-2021年,Transformer模型(LLM背后的算法)大小每两年增长410倍,而同时间AI加速卡内存容量每两年仅增长2倍。同时,主流加速卡的算力增长和内存方案/传输协议的带宽增长也并不同步。1996-2023近20年间,AI芯片峰值算力提升约60000倍(平均每两年提升3倍),而同时期DRAM内存带宽提升为100倍(平均每两年提升1.6倍),芯片/设备间数据传输协议(如PCIe和NVLink)带宽提升仅30倍(平均每两年提升1.4倍)。因此,高存储密度和高带宽的特性让HBM成为了AI训练场景下内存容量和带宽瓶颈的解决方案,作为AI芯片的核心组件之一得到广泛应用。而除去训练,内存容量和带宽对AI推理同样重要,对响应时间的需求、图像生成和视频生成提高了推理计算需求的标准:1)容量上,训练之后的AI模型本质上是优化之后的参数,根据TheNextPlatform24年2月新闻,一个参数量1750亿的GPT-3推理时需要175GB的内存容纳模型参数。加速器搭配大容量HBM方案便于模型整体置入内存,方便加速器推理时调用,减少设备间数据搬运时间,提升AI推理效率;2)带宽上,HBM的高带宽支持单次更大批量数据传输,降低推理延迟,同时亦可以满足推理场景下更多的高并发请求(如META的智能推荐系统)。根据三星24年2月新闻,其12层HBM3E相比上一代8层HBM3,在推理场景下支持并发用户数提升11.5倍。内存迭代提升AI芯片性能,HBM相较传统显存实现容量和带宽倍增在算力接近的情形下,AI芯片可以通过扩容内存和带宽提升模型训练和推理性能,而内存迭代对AI芯片性能的提升可以英伟达H200为例。23年11月全球超算大会(SC23)上,英伟达推出的H200搭载6颗HBM3E,内存达141GB,带宽4.8TB/S。作为H100(搭载6颗HBM3,内存达80GB)的升级款,H200依然采用Hopper架构和台积电4纳米工艺。两者的算力指标基本相同,但在GPU核心数和频率保持不变的情况下,仅通过内存从HBM3向HBM3E的迭代,就能实现在Llama2和GPT-3等大语言模型推理性能40%-90%的提升。对比美光GDDR6X和HBM3E,同样24GB内存容量,前者搭载于英伟达GeForceRTX3080Ti/3090Ti显卡,显存位宽384位,提供76-96GB/s的带宽,后者则面向AI训练场景,显存位宽1024位,提供1.2TB/s的带宽,为GDDR6X的13-16倍。面向ASIC新蓝海,HBM同样蓄势待发我们在2024年2月14日的《竞争格局千变万化,英伟达欲切入专用芯片设计市场》的报告中提出,AI芯片市场竞争日趋白热化,除却GPU等通用型芯片,ASIC专用芯片通过更低的ASP、在特定场景提供更高效和更低功耗、以及更灵活的设计周期,将是通用型GPU的互补或替代。伴随AI模型多元化和算法日趋成熟,ASIC作为“算法的物理呈现”,也将适配各大厂商的差异化模型需求,承接部分算力。头部云及互联网厂商考虑到削减TCP、提升研发可控性及集成自身生态圈等,均在推进自研芯片,而根据路透社与彭博24年2月报道,英伟达也正在建立一个专注于为云计算、AI等领域设计ASIC专用芯片的新业务部门。相较以算力作为核心护城河的GPU,ASIC专用芯片并不以算力见长,但随着芯片设计的进化,ASIC能通过增加HBM内存等有效提升性能并降低延时,从而弥补“算力差距”。根据谷歌23年12月发布的TPUv5p参数及英伟达H100参数,尽管对比INT8算力,TPUv5p仅为H100SXM的23%(918TOPSvs.3958TOPS),但特定场景下(如GPT-3175B训练)二者已可基本对标。其中,H100SXM搭载80GBHBM3,带宽3.35TB/s;谷歌TPUv5p搭载95GBHBM2e,带宽2765GB/s。另外,算法的进步也可有效降低对芯片算力需求,例如特斯拉FSD已采用FP8,而不需采用传统的FP16。HBM核心工艺:TSV和键合堆叠HBM在工艺上是由高性能DRAM通过3D堆叠键合而成,其通过TSV(ThroughSiliconVia,硅通孔)技术垂直连接多片DRAM,从而获得多个单片的大容量。TSV和键合堆叠(bonding)是HBM的两大核心工艺,工艺精进是HBM的迭代的基础:1)TSV工艺:HBM1到HBM3E的迭代实现了带宽从128GB/s到1.2TB/s近10倍增长,而带宽和数据传输速率的提升需要单位面积上更多的TSV穿孔,对缩小TSV穿孔间距和穿孔直径提出更高要求;2)散热:HBM迭代逐步提升堆叠层数和集成度的同时,也意味着单位面积内热量的增加。另外,芯片在垂直方向上的堆叠阻碍热量疏散,带来堆叠层数的散热瓶颈,而芯片堆叠键合的材料/键合方式的导热效率是散热关键;3)层数与高度:将堆叠层数扩展到12层以上,同时仍保持相同的总物理堆叠高度,需要降低单片DRAM的厚度,并尽量缩小DRAM间距,而堆叠键合过程中的施压易造成芯片翘曲,影响成品良率。CoWoS成HBM搭载关键,英特尔EMIB能否接力?HBM透过CoWoS2.5D封装将自身的DRAM堆栈(Stack)与GPU等逻辑芯片集成在中介层(Interposer)上,增加内存和计算芯片间的链路数量,缩短内存与逻辑芯片传输的物理距离,并借助硅中介板的高速I/O接口形成“近存计算”架构,从而增加访存带宽、减少数据搬移次数,以提升整体计算效率,节约频繁数据搬运带来的无用能耗。因此,相较于传统DRAM(例如GDDRGraphicsDoubleDataRate),HBM拥有更高的内存密度和I/O数量(1024位的显存位宽),更加适应AI大模型训练场景。第一代HBM由AMD与海力士合作研发,已经采用硅中介层集成内存和逻辑芯片,但局限于成本问题,早期HBM并未得到广泛应用。根据AMDHBM1的访谈、相关演示材料和Chang-ChiLee于2016年在IEEE上发表的论文《AnOverviewoftheDevelopmentofaGPUwithIntegratedHBMonSiliconInterposer》,2014-2015年发布并量产的HBM1研发耗时8年,尽管彼时台积电CoWoS工艺尚未成熟,但AMD就已意识到需要通过硅中介层使得存储和逻辑芯片物理靠近(集成),以提升带宽和每瓦性能,HBM1的中介层由AMD和日月光、Amkor和UMC合作研发。AMD并未披露HBM1的单片成本,但根据ANANDTech2018年12月报道,8GBHBM2成本约150美元,硅中介层成本25美元,一张搭载HBM2的AMDRXVega56零售价仅400美元,在未考虑先进封装成本下,HBM2成本已占近50%,同时,HBM2成本对比同时期8GBGDDR5售价贵出约3倍,在AI大模型训练需求尚未迅速增长的背景下,早期HBM并未获得广泛采用。HBM2由英伟达、三星和台积电合作研发,台积电CoWoS成为HBM2与逻辑芯片集成的封装方案。Semianalysis在23年7月的分析指出,鉴于光刻设备的限制,一般芯片最大尺寸为858平方毫米(26mmx33mm),而搭载HBM的GPU一般采用HBM内存环绕逻辑芯片的设计,所需硅中介层面积超过该上限,而台积电通过其十字线缝合技术使得硅中介面积可突破该限制,从而适应大尺寸设计需要。根据台积电ShangY.Hou2017年发布的论文《Wafer-LevelIntegrationofanAdvancedLogic-MemorySystemThroughtheSecond-GenerationCoWoSTechnology》,HBM2相较HBM1在尺寸上从40平方毫米增长到92平方毫米,适逢台积电迭代第二代CoWoS,将硅中介层尺寸从1代的800平方毫米拓展到2代的1200平方毫米,同时1代CoWoS仅支持同质芯片间互连,而2代开始实现异质芯片互联(Memory-Logic),叠加测试中台积电CoWoS封装芯片对比其他封装方案更出色的性能表现,因此台积电CoWoS成为HBM2的封装方案。时至今日,台积电CoWoS仍然是HBM与逻辑芯片封装首选。根据Semianalysis23年7月发布的《AICapacityConstraints-CoWoSandHBMSupplyChain》一文,HBM1至HBM3E均采用1024-bit位宽,带来相较传统DRAM更高的I/O焊盘数(padcount),同时HBM与逻辑芯片集成要求更短的走线长度(tracelength),高密度短连接在传统印制电路板(PCBPrintedcircuitboard)或封装基板(PKGPackageSubstrate)难以实现,从而催生2.5D封装需求,而台积电CoWoS利用硅中介以合理的成本提供应对方案,因此成为主流。值得一提的是,HBM与逻辑芯片垂直堆叠的3D封装(如SoIC),鉴于散热和成本问题尚未被采纳,但海力士和三星据Tom’sHardware在23年11月援引韩媒中央日报报导,正在与包括英伟达在内讨论HBM4集成设计方案,拟将HBM4与逻辑芯片堆叠在一起,实现在单芯片上存储器与逻辑芯片的垂直整合。除去台积电CoWoS,英特尔EMIB在技术上也能实现HBM与逻辑芯片的封装,但短期内难以替代。EMIB对标台积电CoWoS-L,与台积电CoWoS-S(即一般所说的台积电CoWoS)2.5D封装采用的硅中介层结构不同,英特尔直接将小型硅桥嵌入基板中实现芯片之间的互联,在互联效率相似的基础上不需要花较高成本来制造足够大的硅中介层,因此技术上也能满足HBM内存与逻辑芯片的封装需要。我们认为相比2.5DCoWoS封装,EMIB有如下提升良率和降低成本的优势:1)采用硅桥而不是整片硅中介层;2)无需使用硅通孔技术(TSV);3)设计简单,灵活度高,芯片封装不会受制于硅中介层的大小。根据Tom’sHardware在24年1月援引台湾经济日报报道,鉴于台积电CoWoS封装产能吃紧,英伟达新增英特尔提供封装服务,月产能约5000片,不过英特尔并未涉及英伟达的晶圆代工订单。但EMIB替代台积电CoWoS-S仍有部分问题需时验证:1)硅桥虽可解决互联带宽问题,但不采用硅基板的RDL中介,载板翘曲和热稳定性需验证;2)鉴于凸块间距,EMIB封装的性能和台积电CoWoS有所不同,亦需封装厂和芯片设计方验证。根据台湾力成23年10月业绩会说法,寻找台积电CoWoS替代方案或需一年时间去验证,短期内难有替代。HBM本质上仍是DRAM产品,各厂商设计、流片和封测均自行完成,出货后将HBM成品交由AI芯片封装厂与逻辑芯片整合,因此DRAM工艺制程将直接影响HBM芯片性能。对于存储芯片,制程工艺的迭代是缩减晶体管尺寸,带来单位面积上实现更小、更紧密的晶体管布局,提升内存密度,实现更高性能的同时达到更好的功耗表现。根据美光DRAM副总裁ThyTran于2021年4月的采访,DRAM在2015年基本进入20nm以下节点之后,制程上的微缩相对放缓,头部厂商在10nm+节点上拓展多代工艺节点(如1x、1y、1z和1α等),而使用字母代替确切数字的动因在于,内存行业确切数字与芯片性能并非线性相关,因此用新字母代表新制程,表示性能有了较大提升。以美光为例,公司于2020年公布1-α制程节点(第四代10nm级),并于2021年开始量产,之后于2022年率先推出1-β制程(第五代10nm级),相较1-α,该节点可实现约15%的能效提升和35%以上的内存密度提升。2023年三星电子及SK海力士也于其后跟进1-β节点。美光和海力士HBM3E均采用1-β制程,领先于三星的1-α制程,而根据公司FY24Q2业绩会,美光HBM3E相较于同代竞品实现约10%的性能提升,降低约30%的功耗,我们认为DRAM制程上的领先功不可没。HBM3/3E扩产加速,但供需缺口短期或难以缓解市场对HBM3/3E反响积极,伴随AI芯片迅速迭代,所需HBM搭载量和技术要求随之提高,在供需失衡下三大厂商纷纷扩产。据Tom’sHardware在23年12月报道,英伟达向海力士和美光提前支付数亿美元以锁定HBM产能,印证了HBM产能的迫切需求和对AI芯片的重要。英伟达在GTC2024上发布了新一代架构Blackwell及B200GPU,通过搭载8颗HBM3E实现192GB内存容量和8TB/s带宽,对比上一代H200(6颗HBM3E,内存容量141GB,带宽4.8TB/s)在内存/带宽上提升36.2%/66.67%。亚马逊AWS已计划采购2万片GB200芯片,以部署高达27万亿参数的模型。根据Digitimes24年3月的报道,Meta计划在24年底前储备约35万颗H100,加上其采用的其他AI芯片,将拥有相当于60万颗H100。Meta在3月19日指出,目前Meta正在以2个GPU丛集训练其第三代Llama模型,据称每个丛集包含约2.4万个H100GPU,公司计划导入Blackwell训练Llama的未来版本。根据美光FY24Q2业绩会,公司预期24年5月HBM3E出现初步营收贡献,8月营收将进一步提升,FY24Q3开始对公司的DRAM业务和整体毛利率作出改善,并预计在FY24整年,HBM3E将贡献约数亿美元营收。管理层对HBM3E前景乐观,并宣布24年产能已售罄,25年产能也几近售罄。公司预计FY24CAPEX在75-80亿美元,略高于FY23水平,主要用于支持HBM3E量产和扩产。管理层虽未透露除CAPEX之外更多的HBM扩产信息,但预期25年HBM市占率将与公司在DRAM市占率平齐,约为20%。根据Digitimes24年3月12日和4月15日报道,美光将逐季提高稼动率,增产重点将以HBM等高端DRAM为主,并与韩美半导体(HanmiSemiconductor)签订HBMTC键合设备DualTCBonderTiger的供应合约,订单规模225.9亿韩元(约1653亿美元),合约期限为2024年4月10日至7月8日。我们也注意到HBM另两大厂商海力士和三星亦在HBM扩产上有所动作。继23年“独供”英伟达H100HBM3之后,海力士积极推动产能向HBM3E迭代。公司预计将于利川工厂生产HBM3E,清州M15工厂闲置空间新增HBM产线,预期于24H1量产HBM3,同时清州正在兴建的M15X厂房也将作为HBM生产基地,产能预期于25H1开出。根据先前海力士23Q3业绩电话会,24年公司的HBM3和HBM3E产能已全部售出,正与客户、合作伙伴讨论25年HBM供应。根据Digitimes24年4月15日、3月11日和2月7日报道,23年以来海力士已从韩美半导体订购逾2000亿韩元的TC键合设备,包括DualTCBonderGriffin及DualTCBonder1.0Dragon,而同时24年海力士将于HBM投资超10亿美元,其中大多新投资将用于改善封装制程,包括MR-MUF键合工艺和TSV技术,从而提升其HBM产品散热能力和生产效率。考量新设备安装后扩大量产仍需时间,海力士计划24年底实现将HBM产能增加2倍,从23年每月4.5万片晶圆提升至24年底每月12-12.5万片晶圆。根据Digitimes24年1月和Trendforce24年3月报道,24年三星决定将HBM产能投资增加近3倍,从23年每月4.5万片晶圆提升至24年底每月13万片晶圆,25年也将进行类似规模的投资。根据Digitimes23年12月汇总信息,23H2以来三星在设备采购和产线增加上动作积极:1)Theelec12月5日报道,三星以5亿韩元单价从Shinkawa订购16台键合设备,其中7台已交付,推测该批设备将服务于英伟达GPU相关的HBM和封装业务;2)韩媒ZDNetKorea12月1日报道,韩国设备供应商YEST收到三星123亿韩元HBM加压设备订单,发往三星天安生产线;3)三星于CES2024宣布计划在2024年将HBM年产能扩大2.5倍以上,并随后投资105亿韩元从子公司三星显示(SDC)处收购天安工厂的建筑和设施。根据韩国经济日报24年3月28日报道,三星管理层在Memcon2024宣布上调24年HBM产能预期至23年的2.9倍。HBM供需测算:24-25年需求高速增长,供给缺口短期难以缓解综合Trendforce、Semianalysis和Digitimes等多方信息,我们对2024年HBM产能和需求做出预测,我们预计24/25年HBM需求动态缺口约为产能的5.4%/4%。供给侧关键假设:1)产能假设:以HBM与TSV产线晶圆投入量为计,我们预期截至2024年底海力士、三星和美光将分别投入12-12.5万片/月、13万片/月和2万片/月。考虑后道设备交付时间较长,以及新设备安装后扩大量产仍需时间,我们预测24年三星、海力士和美光HBM产线平均月度晶圆投入量将达8.5万片/月、8.5万片/月和1.2万片/月。鉴于海力士和美光25年HBM产能亦出现售罄迹象,结合前文三星25年HBM扩产投资计划,我们认为25年三大厂商扩产仍将持续,预测25年三星、海力士和美光HBM产线平均月度晶圆投入量将达11.5万片/月、12.5万片/月和4.0万片/月。2)切割良率假设:根据美光官方公布HBM3E产品细节,HBM3E单片DRAM尺寸约为为121平方毫米(11mmx11mm),因此单片12英寸晶圆理论可切割HBM3/3EDRAM491颗。同时,引用韩国经济日报21年7月报道,我们估计DRAM切割良率约为90%,故单晶圆可切割DRAM442颗。此外,根据Digitimes24年3月报道,鉴于TSV穿孔和键合过程易带来芯片翘曲,海力士HBM3/TSV+键合工艺良率仅60%-70%,较一般DRAM低20-30pct,而海力士采用的AdvancedMR-MUF键合已较三星和美光采用的TC-NCF键合在良率上有所优势,因此美光和三星HBM键合良率可能更低。同时,台媒科技新报24年3月报道指出,供应商试图拉高良率会带来产量下降,鉴于HBM产能吃紧,因此确保产量优先级更高。结合上述信息,我们认为美光和三星HBM3量产后,伴随产能爬坡,工艺良率将有所提升并趋于稳定,但使用TC-NCF键合所以良率仍将低于海力士,预测24年海力士/三星/美光整体HBM良率60%/40%/45%,25年小有爬升,将是60%/42%/47%。3)单个DRAM容量假设:伴随HBM3/3E产能不断开出,HBM产品组合将向HBM3/3E倾斜,根据YoleIntelligence24年2月报告,23年HBM3产量占总产能的33%,24年HBM3/3E产量占比将跃升至81%(HBM3:62%,HBM3E:19%),25年将进一步提升至89%。我们认为,海力士作为英伟达HBM3/3E主供,产能向HBM3/3E倾斜将更为激进;与之相比,三星凭借其“一站式策略”承接更多云厂商自研芯片的HBM需求,因此HBM2/2E仍占部分产能;美光计划通过HBM3E追赶市场份额,在产能本不富裕的情形下,扩产HBM3E并顺利交付将是首要发力点。因此,我们预测,24年海力士/三星/美光HBM的单片DRAM容量为2.2/2.1/3.0GB,25年伴随芯片迭代及HBM3E产能开出,其占比将持续扩大,带动HBM的单片DRAM容量提升至2.6/2.4/3.0GB。需求侧关键假设:1)CoWoS产能假设:结合台积电23年底CoWoS月产能为1.9万片,考虑产能爬坡时间,我们预测24年台积电动态CoWoS产能为2.8万片/月,与外溢部分合计3.3万片/月,24年CoWoS总产能约39.6万片;25年除去台积电CoWoS产能扩张,英特尔EMIB、Amkor和ASE等外溢产能同样有望进一步开出,预测25年CoWoS月产能5.2万片,总产能62万片。2)各厂商AI芯片单晶圆切出量、单卡HBM堆栈数量以及单HBM堆栈容量:我们基于各AI芯片尺寸计算每片切出芯片数目,并根据HBM参数,结合各厂商取得的CoWoS产能,以芯片出货量为权重计算三项参数的加权平均。产能分布上,我们认为24-25年HBM需求仍以英伟达AIGPU为主体,英伟达24-25年仍将每年取得逾40%产能,同时关注到AMDMI300、谷歌TPUv5、AWSTrainium/Inferentia以及英特尔Gaudi2/3带来的需求增量;单晶圆切出量上,伴随设计尺寸增大,以及Blackwell对比Hopper产能占比提升,25年每片切出的AI芯片将随之下降;结合前文,虽然每片切出数目减少,但单卡HBM堆栈数目增多、层数增高和容量增大将是大势所趋。因此,我们预测24/25年单晶圆平均切出AI芯片39/38颗、单卡平均HBM堆栈数量5.3/5.9颗,以及单HBM堆栈平均容量14.0/14.7GB。基于以上假设,我们预测24/25年HBM总供给1067.3/1933.1mnGB,同比+123.3%/81.1%,其中24年海力士、三星和美光分别占总供给的57%、36%和8%,伴随美光25年HBM产能开出,海力士、三星和美光HBM供给量将分别占总供给的50%、35%和15%。同时,我们预测24/25年HBM总需求1128.6/2014.3mnGB,由此测算得24/25年HBM供给缺口约为产能的5.4%/4%。鉴于三大厂商均提及与下游讨论25年HBM供应,我们认为24年HBM扩产后,25年缺口虽收窄但仍将维持轻微的供给不足,从而使得HBMASP维持稳定。以ASP11美元/GB测算,对应市场空间124.1/221.6亿美元,同比+125.6%/78.6%。从AI服务器需求看HBM,高速增长带来内存新增长点AI服务器的兴起拉动HBM市场需求持续增长。根据TrendForce23年4月报道,现阶段通用服务器DRAM约为500-600GB,而AI服务器则需要更多,平均为1.2-1.7TB,其中HBM容量为320-640GB。随着AI模型日益复杂,对服务器训练速度的追求将越来越高,因此DRAM和HBM是必不可少,同时,在SSD容量提升上亦呈现扩大的态势。Trendforce估计未来AI服务器每台DRAM容量为2.2-2.7TB,其中HBM容量为512-1024GB。根据海力士23Q3业绩电话会,管理层预期未来5年HBM总市场规模的CAGR为60%-80%。AI服务器市场火热亦可从服务器厂商业绩略见一斑。2024年2月29日盘后Dell发布FY24Q4业绩,Serversandnetworking业务收入环比增长4.3%至48.57亿美元,超过彭博一致预期的48.09亿美元,AI服务器出货达8亿美元。展望未来,公司的AI服务器累计在手订单增长至29亿美元,接近第三季度16亿美元的两倍,因此将带来稳健的增长前景,公司预计InfrastructureSolutionGroup(ISG)板块(分为Serversandnetworking和Storage业务,包含AI基础设施中的储存产品PowerScale)将受益于来自AI客户的强劲需求,同步增长15%-17%(mid-teensgrowth)。业绩发布后一交易日,Dell股价盘中一度飙升至131.1元的高点,最终收盘于124.59美元,上涨31.62%。竞争格局:三大厂商瓜分HBM3/3E市场,各显神通角逐HBM4在半导体行业,先进制程技术的发展呈现资金和技术壁垒不断提高的趋势,HBM所需工艺的复杂性和其应用场景,以及对供需双方深度合作的要求,使得行业格局集中于海力士、三星和美光三大厂商。综合YoleIntelligence24年2月发布的全球HBM市场报告,23年海力士市场份额为56%,三星市场份额为41%,美光市场份额为3%。美光:跳过HBM3,1-β制程HBM3E加速追赶我们看好美光HBM业务的逻辑不是其“赢在起跑线上”,相反,美光并非HBM市场的先行者,但我们预期美光将是本轮HBM高速增长的主要受惠者:1)中短期内HBM市场仍将供不应求,美光HBM3E可作为“二供”承接溢出订单,同时其相较同业竞品更优的产品性能也有利于帮助其扩展下游客户;2)HBM3E相较传统DRAMASP更高,借助HBM3E的营收贡献美光利润率有望迎来优化,同时HBM销售多基于年度合同,相较传统DRAM大宗商品属性更低,拥有更好的抗周期性;3)与海力士和三星不同,美光借HBM3E“重启”HBM业务几近“从无到有”,2023年HBM市场份额仅为3%,低基数带来相较前两者更高的成长性;4)英伟达扶持,受益于英伟达大量HBM需求。23年英伟达H100HBM3由海力士独供,我们认为一方面海力士HBM3/3E产能扩展有限,为保证AI芯片按期交付,英伟达积极扶持美光作为HBM“二供”;另一方面也是出于避免过分依赖海力士,防止海力士一家独大的考量,寻求替代方案,“货比三家”从而掌握更大的议价主动性。目前海力士HBM3/3E“独供”格局已被打破,截至24年4月中旬,海力士和美光HBM3E均已通过英伟达效能验证,确认供货H200,三星HBM3E仍在验证进程中,但Digitimes24年4月15日报道指出三星上修24年HBM出货目标及访台谋求HBM合作当作积极,或隐含英伟达产品验证进程顺利。我们认为美光能否借HBM“东风”成功实现估值重估,关键在于在HBM的蛋糕不断做大的前提下,其能否成功抢占份额:1)产能:当前美光HBM产能较海力士和三星仍然较低,24-25年美光能否成功扩产并满足下游需求将是关键;2)良率:相较海力士MR-MUF键合,美光和三星均使用TC-NCF,键合技术良率仍然较低,能否通过良率提升进一步减少损耗成本,同时变相提升产能也将是未来发力重点。美光并非HBM领域的先行者,自研HMC未获广泛应用。2011年9月,英特尔于开发者论坛(IDF)介绍其与美光合作开发的HMC(HybridMemoryCube混合内存立方体)技术,同样基于TSV技术构建DRAM堆栈,以解决DDR3面临的带宽问题。但限于成本高昂及并非开放标准,并未获得业界广泛采用。根据MicroprocessorReport14年9月的报道,富士通Sparc64XIfx是为数不多采用美光HMC的处理器之一,搭载于15年推出的富士通PRIMEHPCFX100超级电脑。2018年8月,因未获市场采纳,美光宣布放弃HMC,转向HBM,2020年3月美光开始提供HBM2产品,面向高端AI芯片的显存方案,并于2020年7月宣布量产HBM2E,此时较2016年三星率先发布HBM2已然过去近4年。美光跳过HBM3,意图通过1-β制程占领HBM3E市场份额。为追赶SK海力士和三星,美光决定跳过HBM3直接生产HBM3E。2023年7月,美光宣布与台积电3D-Fabric联盟,推出1-β制程的HBM3E,其DRAM堆栈为8层,提供24GB容量,带宽、传输速度达到1.2TB/s、9.2Gbps。24年2月26日,美光率先宣布实现HBM3E量产,确认供货英伟达H200,24年3月美光已宣布出样12层36GBHBM3E,预期25年量产。对比海力士和三星的HBM3E,美光布局较晚,欲在工艺上弯道超车,提升产品性能。根据公司FY24Q2业绩会,美光HBM3E相较于同代竞品实现约10%的性能提升,降低约30%的功耗,管理层称美光HBM3E的性能优势获得客户青睐,并证实其跳过HBM3直接布局HBM3E战略的可行性:1)制程上:根据Digitimes24年1月报道,美光和海力士HBM3E均采用1-β制程,领先于三星的1-α制程,而美光预期于25年率先量产下一代1-γDRAM,由于HBM本质是DRAM堆叠,若率先采用1-γ制程的DRAM将同样为HBM产品带来性能优势;2)布局中国台湾,加强供应链合作:根据台媒数位时代24年3月专访中国台湾美光董事长卢东晖的报道,结合Digitimes24年3月相关新闻,美光HBM3E封测和出货均在中国台湾完成,自产品设计阶段开始与中国台湾供应链合作紧密,例如,在中国台湾供应链部分,美光与IP供应商合作提供GPU与HBM快速交互的相关技术。同时,相较三星集存储、AI芯片设计、晶圆代工和封装为一体,美光定位与海力士接近,与台积电不存在竞争关系,因此自HBM3E研发初期开始即可以与台积电紧密合作商讨HBM与GPU整合方案,鉴于英伟达和AMD等下游客户是台积电CoWoS的“头号客户”,美光与台积电的合作加速客户验证其HBM3E进程,纠错过程亦更易进行。同时,三星24年3月下旬访台就HBM加强与台积电合作,并拉拢更多供应链伙伴,海力士HBM开发过程中也曾数次访问台积电,侧面印证HBM供应链合作的必要性。SK海力士:超越三星的HBM领头羊,先发优势、领先制程和键合工艺稳坐头把交椅我们认为,海力士自独供英伟达HBM3开始的先发优势使得其坐稳行业龙头,但面对来势汹汹的美光,其在HBM市场50%左右的份额能否保持则有待观察。尽管英伟达对HBM3E需求增加,但AMD和云厂商自研芯片对HBM3需求也不可忽视,24-25年HBM3仍将是海力士营收增长的“基本盘”。相较美光和三星,海力士已积累与下游客户合作的丰富经验,如我们前文所述,其效能验证和纠错效率或较竞争对手更高;相较三星,海力士HBM3已形成成熟供应链,良率稳定且技术较三星更有优势。SK海力士的第一代HBM与AMD联合开发,之后公司多次发布新产品,保持HBM领先地位。2013年12月,公司与AMD联合开发HBM1,和AMDFijiGPU一起应用于AMDRadeonFury系列显卡。之后的7年间迭代更新HBM2和HBM2E;于2021年10月推出全球首款HBM3,2022年6月实现量产后独供英伟达H100。2023年4月推出24GB12层堆叠的HBM3,通过将单个DRAM的高度磨削到约30微米(比16GBHBM3单片薄40%),实现了与16GB产品相同的高度。2023年8月发布HBM3E。海力士在CES2024展示的HBM3E提供1.18TB/s数据处理速度(发布初为1.15TB/s),并已经于24年3月实现HBM3E量产,开始向英伟达供货。根据TechInsights转载24年2月国际固态电路研讨会(ISSCC2024)日程,海力士于会上Paper13.4中公开其16层堆叠的HBM3E技术,提供48GB内存和近1.3TB/s的带宽。根据Digitimes24年2月26日报道,业界估计24年海力士HBM营收将达10兆韩元(约74.9亿美元),相当于23年总营收的一半,Digitimes该篇报道亦假设利润率为50%,由此推出海力士HBM利润约为5兆韩元,将占24年整体利润的50%。相较三星和美光,海力士采用领先的HBM键合工艺,是业内唯一将MR-MUF技术应用于HBM的公司。海力士的HBM2和三星HBM键合均采用TC-NCF(基于热压的非导电薄膜ThermalCompression-NonConductiveFilm)工艺,该过程需要高温高压环境将凸点(bumps)推入非导电薄膜,在单个DRAM高度减少的环境下更易导致芯片翘曲。海力士在HBM2E中首次使用MR-MUF(批量回流模制底部填充MassReflowMoldedUnderfill),通过在芯片间注入EMC(液态环氧树脂模塑料EpoxyMoldingCompound)填充芯片之间或芯片与凸块之间间隙。EMC本身具备中低温固化、低翘曲、低吸水率等优点,无需借助高温高压,可有效解决芯片翘曲从而提升良率。在设计12层HBM3时,公司采用了AdvancedMR-MUF技术,进一步提升工艺良率和散热性能。与三星不同,海力士没有晶圆代工业务,与台积电合作更加紧密,二者作为受益于AI芯片的利益共同体,合作推进HBM4研发。2024年4月,海力士与台积电签署合作备忘录,合作开发预计在2026年投产的HBM4,以此与三星的“一站式策略(TurnkeyStrategy)”竞争。该合作主要分为两个方面:1)海力士和台积电将首先致力改善HBM封装内最底层的基础裸片(BaseDie),该片与上方的DRAM不同,对上方的DRAM堆栈(CoreDie)起到控制作用,同样连接至GPU。过往包括HBM3E在内的海力士HBM产品的基础裸片由海力士基于自身制程工艺制造,但从HBM4开始采用台积电先进逻辑制程,更细微的工艺可以在基础裸片上增加更多功能,从而满足客户定制化产品在性能和功效上更加多样的需求;2)双方将进一步优化海力士HBM产品和台积电CoWoS技术融合,改善性能表现。三星:依托自家晶圆代工部门,一站式策略追赶海力士市场份额三星于23H2开始量产16GB/24GB1-ZHBM3,根据Trendforce24年3月报道,其16/24GBHBM3已于23年底确认供货英伟达,打破海力士作为英伟达HBM3“独供”格局。GTC2024期间三星展示其12层36GBHBM3E,预期于24H2实现量产。英伟达CEOJensenHuang会上于三星12层HBM3E旁签下“JensenApproved”,确认该产品正在通过英伟达效能验证。Digitimes24年4月报道三星HBM3E测试已近尾声,最快24Q2开始供货英伟达,相较之前市场预期24H2提前。我们认为,三星是海力士HBM市场的有力竞争者,短期HBM3市场或难以追赶海力士,但中期HBM3E/4将凸显其优势:1)相较海力士,三星HBM3起步较晚,因此市场份额或难以相匹敌,然而24年2月三星12层36GBHBM3E已经宣布开发完成,且带宽提升相较海力士更为激进,若三星成功于24H1量产HBM3E,并后续通过英伟达验证,则将与海力士重回同一起跑线;2)对比海力士和美光,三星的独特之处在于其整合存储芯片和晶圆代工的能力,从而实现“一站式策略(TurnkeyStrategy)”。中期来看,三星的“一站式策略”将服务于HBM4的研发,其逻辑类似海力士与台积电的合作,三星存储与封装部门协同将缩短HBM4从研发到生产的中间环节,并在未来的量产中缩短从存储颗粒制造、封装到交付的周期,从而能占得HBM4及后续产品先机;3)对比海力士积极推进HBM3/3E产能迭代,三星在HBM2E市场仍然有着来自AMDXilinx、中国芯片厂商以及云厂商自研芯片的HBM需求。例如XilinxVersalFPGA、GoogleTPUv5e、AmazonInferentia2和Trainum、壁仞科技(Biren)106系列和燧原科技(Enflame)云燧T20仍采用HBM2E,短期内仍有部分需求。海力士HBM3率先量产占得先机,三星加速迭代奋起直追。16年1月,三星跳过HBM

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论