版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
2024年AI算力产业链专题报告:国产算力迈入自强新纪元一、国内AI产业有望迎来跨越式发展1.1海外AI产业蓬勃发展OpenAI于2023年3月发布GPT-4,谷歌于2023年12月发布Gemini大模型,并在近期推出Gemini1.5pro以及开源模型Gemma,大模型能力持续迭代升级。伴随大模型能力的提升,海外AI应用蓬勃发展,云大厂比如微软推出copilot、bingAI等,谷歌推出workspece、聊天机器人Gemini等外,B端垂直企业服务、C端应用等层出不穷。据SensorTower数据显示,2023年,AI应用年度下载量和内购收入分别上涨60%和70%,超过21亿次和17亿美元(其中2023H1下载量突破3亿次)。英伟达提到,FY24全年估计40%收入来自AI推理端。近期openaisora、谷歌Genie发布,视频应用领域AI能力边界大幅跃升,AI向基础世界模型、AGI领域迈进。从支撑AI发展的基础设施角度,不管是从英伟达、超微电脑、台积电、AMD等硬件厂商的业绩和指引,还是从海外云厂商的capex投入,都印证海外AI产业的持续提速。英伟达FY24Q3、FY24Q4业绩持续超过分析师预期,主要来自AI带动数据中心业务超预期带动,英伟达对下一季度指引乐观,预计FY25Q1收入240亿美元,同样超过分析师预期的219亿美元。超微电脑FY24Q2营收超预期,FY24Q3预计净销售额在37亿美元至41亿美元之间,远超市场预期,主要得益于AI系统强劲需求的驱动。台积电预计未来几年AI相关业务CAGR将达50%,上调远期AI营收占比目标,预期2027年AI营收占比达到高双位数(highteen),此前预期为低双位数(lowteen)。AMD在2023年12月上调加速器规模预测,预计到2027年,人工智能加速器的整体市场规模将达4000亿美元,CAGR达到70%,此前2023年8月AMD预计2027年人工加速器行业规模为1500亿美元。海外云厂商对AI投入展望持续乐观。谷歌指引2024年资本支出将明显增长。meta指引2024年资本开支300亿美元-370亿美元,上限上调20亿美元。微软表示,基于对云和人工智能基础设施的投资、第三方产能合同的交付转移到下一季度,预计下一季度资本支出将环比大幅增加。亚马逊预计2024年资本支出将同比增加。1.2国内大模型基本实现能力边界突破国内厂商也加快研发节奏,纷纷发布大模型产品,并不断持续迭代更新。2023年3月-6月间,包括百度、清华智谱、阿里巴巴、科大讯飞、百川智能等厂商相继发布自己的大模型产品,后续持续迭代更新,在2023年9月、10月前后发布重要更新,提升模型能力。国内领先的大模型基本在2023年10月至11月实现了能力边界的突破,实现看齐甚至部分能力超越ChatGPT,并且后续在持续的进一步迭代升级。随着国内大模型能力的提升,AI应用预计2024年也将迎来加速落地。参考国内中文模型评测机构SuperCLUE发布中文大模型基准测评,对比来看,国内大模型厂商的能力在快速提升。2023年5月,国内大模型总体与GPT3.5有约20分的差距,国产得分最高的星火认知大模型总分53.58,而GPT3.5为66.18。2023年11月,国产头部大模型已基本完成对GPT3.5的总分超越,与GPT4-Turbo的差距也在快速缩小,74.02分的文心一言4.0、72.88分的Moonshot等大模型超越了59.39分的GPT3.5,与89.79分的GPT4仍有距离。SuperCLUE最新的2024年2月测评结果显示,国产第一梯队大模型已将与GPT4.0的得分差距拉至10分以内,其中文心一言4.0总分87.75,GLM-4总分86.77,通义千问2.1总分85.7、Baichaun3总分82.59、Moonshot(kimichat)总分82.37、讯飞星火V3.5总分81.01,而GPT4.0-Turbo总分92.71、GPT3.5总分64.34。近期Kimi支持200万字超长文本,用户数激增,国内模型的能力和应用的展望进一步乐观。2024年3月18日,月之暗面宣布Kimi智能助手已支持200万字超长无损上下文(2023年10月刚发布时,Kimi可支持的无损上下文输入长度为20万字),在长文本处理能力上取得了突破性进展,并于即日起开启产品内测。Kimi的月活用户从2023年底的50万左右增至接近300万,网页端的日活从3月9日的12万多增至14日的35万左右,3月21日,Kimi因访问量暴增而疑似宕机。1.3国家大力推动AI建设与应用落地2024年2月19日,国务院国资委召开中央企业人工智能专题推进会。会议认为,加快推动人工智能发展,是国资央企发挥功能使命,抢抓战略机遇,培育新质生产力,推进高质量发展的必然要求。中央企业要主动拥抱人工智能带来的深刻变革,把加快发展新一代人工智能摆在更加突出的位置,不断强化创新策略、应用示范和人才聚集,着力打造人工智能产业集群,发挥需求规模大、产业配套全、应用场景多的优势,带头抢抓人工智能赋能传统产业,加快构建数据驱动、人机协同、跨界融合、共创分享的智能经济形态。会议强调,中央企业要把发展人工智能放在全局工作中统筹谋划,深入推进产业焕新,加快布局和发展人工智能产业。要夯实发展基础底座,把主要资源集中投入到最需要、最有优势的领域,加快建设一批智能算力中心,进一步深化开放合作,更好发挥跨央企协同创新平台作用。开展AI+专项行动,强化需求牵引,加快重点行业赋能,构建一批产业多模态优质数据集,打造从基础设施、算法工具、智能平台到解决方案的大模型赋能产业生态。10家头部中央企业签订倡议书,表示将主动向社会开放人工智能应用场景。二、国产算力基础设施迎来发展机会2.1AI发展需要强大算力基础设施支撑大语言模型所使用的数据量和参数规模呈现“指数级”增长,带来智能算力需求爆炸式增长。OpenAI在2018年推出的GPT参数量为1.17亿,预训练数据量约5GB,而GPT-3参数量达1750亿,预训练数据量达45TB,而当前来看,大模型参数进一步提升,已经达到万亿级,并持续迭代发展。训练阶段算力需求与模型参数数量、训练数据集规模等有关,参考天翼智库测算信息,根据OpenAI发布的论文《ScalingLawsforNeuralLanguageModels》数据,训练阶段算力需求=6×模型参数数量×训练集规模,GPT-3模型参数约1750亿个,预训练数据量为45TB,折合成训练集约为3000亿tokens,GPT-3的总算力消耗约为3646PFLOPS-day,实际运行中,GPU算力除用于模型训练,还需处理通信、数据读写等任务,对算力会有更大消耗。面向推理侧算力需求,参考天翼智库测算信息,根据OpenAI发布的论文《ScalingLawsforNeuralLanguageModels》数据,平均每1000个token对应750个单词,推理阶段算力需求=2×模型参数数量×token数。ChatGPT上市仅5天就突破100万用户,两个月内用户就突破1亿大关,现在每周活跃用户维持在亿量级。假设按照1亿的ChatGPT的活跃用户数、日活跃用户2000万人,平均每位用户单次查询对应1000个token,每天查询10次,GPT-3模型每日对话产生推力算力需求为810PFLOPS-day,同样考虑到有效算力比率,实际运行中需要更大算力支撑。人工智能的发展将带动算力规模高速增长,继而刺激算力基础设施的需求。根据中国信通院数据,2022年全球计算设备算力总规模达到906EFLOPS,预计未来5年全球算力规模增速将超50%。IDC数据显示,2022年中国通用算力和智能算力规模分别达54.5EFLOPS(基于FP64)和259.9EFLOPS(基于FP16),2027年通用算力和智能算力规模将达到117.3EFLOPS和1117.4EFLOPS,预估未来5年复合增长率16.6%和33.9%。运营商加大智能算力基础设施投入。中国移动2024年计划总体资本开支1730亿元同比下降4%,用于算力资本开支计划475亿元同比增长21%。中国电信2024年计划总体资本开支960亿元同比下降4%,用于产业数字化资本开支370亿元同比增长4%,用于云/算力投资180亿元。中国联通2024年计划总体资本开支650亿元同比下降12%,公司表示投资重点将由稳基础的联网通信业务转向高增长的算网数智业务。在相关AI服务器采购方面,2023年8月,中国电信启动2023-2024年AI算力服务器集采,整体采购规模为4175台,中标总价超84亿元。2023年9月,中国移动启动了2023年至2024年新型智算中心(试验网)采购项目,采购人工智能服务器(2454台)、数据中心交换机(204套)及其配套产品等,总价约33亿元(标包4-12总额,标包1-3采购失败)。2024年3月,中国联通发布2024年人工智能服务器集中采购项目资格预审公告,涵盖人工智能服务器合计2503台,关键组网设备RoCE交换机合计688台。同时,三大运营商也在积极加快智算中心等基础设施的建设。国内互联网厂商资本开支呈现回暖态势。2023年全年腾讯资本开支为238.93亿元,同比增长32.6%,2023Q1、2023Q2、2023Q3、2023Q4腾讯的资本开支分别为44.11、39.35、80.05、75.24亿元,分别同比-36.7%、+31.1%、+236.8%、+33.1%。阿里巴巴在2023年前三季度单季资本开支同比均呈现下滑,2023Q1、2023Q2、2023Q3阿里巴巴的资本开支分别为25.13、60.07、41.12亿元,分别同比-72.7%、-46.0%、-62.5%,2023Q4同比转为正增长,资本开支为72.86亿元,同比增长25.8%。英伟达持续升级GPU,算力持续提升。2024年3月GTC上,英伟达发布GB200超级芯片,采用Blackwell架构,采用台积电的4纳米(4NP)工艺,整合两个独立制造的裸晶(Die)形成一个BlackwellGPU,两个BlackwellGPU与一个GraceCPU结合成为GB200superchip。BlackwellGPU共有2080亿个晶体管,上一代H100只有800亿晶体管,整体性能明显提升。一个GB200NVL72就最高支持27万亿参数的模型。英伟达表示,过去在90天内训练一个1.8万亿参数的MoE架构GPT模型,需要8000个Hopper架构GPU,15兆瓦功率,如今同样给90天时间,在Blackwell架构下只需要2000个GPU,以及1/4的能源消耗。2.2禁运持续升级,国产化大势所趋美国对中国先进芯片进口限制持续升级。2023年10月,美国颁布新的半导体出口限制,对芯片算力和性能密度做了更严格的规定,A100/A800、H100/H200/H800、L4、L40s均不满足出口条件。在2022年8月,美国首次针对中国实施大规模芯片出口制裁,停止出口A100和H100两款芯片和相应产品组成的系统。本次制裁主要限制总计算性能(算力*位宽)≥4800且互联带宽≥600GB/s的高端AI芯片出口,在制裁后,英伟达为中国重新设计了A800和H800两款“阉割版”芯片,主要在互联速率和双精度计算性能上做了限制。2023年10月升级版本的芯片禁令加大了打击力度,性能满足以下条件均受出口管制:(1)总计算能力TPP(算力*位宽)超过4800的芯片;(2)TPP超过1600且PD(TPP/芯片面积)超过5.92的芯片;(3)2400≤TPP<4800,且1.6≤PD<5.92的芯片;(4)1600≤TPP,且3.2≤PD<5.92的芯片。在此要求下,A100/A800、H100/H200/H800、L4、L40s均不满足出口条件,英伟达只能全方位削弱芯片算力,向中国提供H20、L20、L2芯片。而近日美国政府再次升级对华半导体出口管制措施。参考钛媒体信息,北京时间2024年3月30日凌晨,美国商务部下属的工业与安全局(BIS)发布“实施额外出口管制”的新规措施,修订了BIS于2022、2023年10月制定的两次出口限制新规,全面限制英伟达、AMD以及更多更先进AI芯片和半导体设备向中国销售,此次新规中,BIS删除和修订了部分关于美国、中国澳门等地对华销售半导体产品的限制措施,包括中国澳门和D:5国家组将采取“推定拒绝政策”,并且美国对中国出口的AI半导体产品将采取“逐案审查”政策规则,包括技术级别、客户身份、合规计划等信息全面查验。国内算力自立自强是必然趋势。此前国内对英伟达芯片依赖度较高,2022年,中国AI加速卡市场中,英伟达占据85%的出货量,而国产芯片中,华为、百度昆仑、寒武纪、燧原各自占比10%、2%、1%、1%。IDC数据显示,2023年上半年,中国加速芯片的市场规模超过50万张。从技术角度看,GPU卡占有90%的市场份额,从品牌角度看,中国本土AI芯片品牌出货超过5万张,占比整个市场10%左右的份额。当前禁运持续升级,但是国内人工智能发展的趋势和力度并不会因此而发生变化,相反我们更需要重视人工智能的发展,美国对于中国先进芯片的限制升级可能将进一步推动我国高水平科技自立自强的步伐。预计未来国产化比例将大幅提升,短期由于国内算力芯片供需的缺口,包括H20等在内的海外芯片也预计对国内算力行业进一步形成补充。H20芯片在单卡性能上不具备突出优势,但利用NVLINK技术集群性能提升。2.3当前国产芯片性能或已接近A100,或优于H20目前华为海思、寒武纪、平头哥、壁仞科技、百度昆仑芯、燧原科技、海光等国内GPU厂商均已推出用于训练、推理场景的算力芯片,并且持续迭代升级,性能在不断提升。而生态方面,国内GPU厂商也推出软件开发包,支持TensorFlow、Pytorch等主流框架,并且基于自身的软件建立了开发平台,吸引更多的开发者建立完善生态体系。国产头部芯片单芯片算力或已接近A100,或优于H20。以FP16精度为例,国产芯片中华为昇腾910算力为256TFLOPS,略低于A100的312TFLOPS,相较于H100的1513TFLOPS有较大差距,但强于H20的148TFLOPS。此外,平头哥含光800在INT8精度,壁仞科技BR100在FP32精度均超过A100。在单颗芯片峰值算力上,国产芯片已经满足大规模使用条件。随着国产芯片能力的提升,国内算力产业发展将进一步提速。三、国产算力产业链环节梳理3.1服务器:AI高增,国产算力芯片发展或带来格局生变通用服务器相对疲软,AI服务器高增。受经济持续疲软、高通胀、企业资本支出缩减、去库存等影响,2023年服务器市场整体出货量不及预期。IDC数据显示,2023年第三季度,全球服务器销售额为315.6亿美元,同比增长0.5%;出货量为306.6万台,同比下降22.8%;预计2023年全球服务器市场规模微幅增长至1284.71亿美元,增长率4.26%;预计未来四年的年增长率预计分别为11.8%、10.2%、9.7%和8.9%。到2027年,市场规模预计将达到1891.39亿美元。Trendforce数据显示,预计2023年中国服务器需求将同比下降9.7%。通用服务器受AI需求暴涨、全球整机支出向AI倾斜影响,通用服务器市场被进一步压缩。IDC数据,2023年上半年全球通用服务器市场和CPU市场规模均出现下滑,其中二季度CPU市场同比下滑13.4%。AI服务器高增。IDC预计,全球人工智能硬件市场(服务器)规模将从2022年的195亿美元增长到2026年的347亿美元,年复合增长率达17.3%。IDC预计,2023年中国人工智能服务器市场规模将达到91亿美元,同比增长82.5%,2027年将达到134亿美元,五年年复合增长率达21.8%。AI服务器占比提升和国产化率提升,国内服务器厂商竞争格局或存变数。此前服务器竞争格局中,浪潮、新华三等厂商份额较高。2022年中国服务器市场份额来看,浪潮、新华三、超聚变、宁畅、中兴位列前五,份额分别为28%、17%、10%、6%、5%。2022年我国AI服务器市场份额来看,浪潮、新华三、宁畅、安擎、坤前、华为位列前六,份额分别为47%、11%、9%、7%、6%、6%。随着国产AI芯片占比的提升,AI服务器供应商格局或存在变化。当前昇腾在国产GPU中性能较为领先,国内深度参与华为昇腾算力服务器供应的厂商有望更为受益,具体可参考中国电信、中国移动等中标候选人情况。未来随着国内其他厂商GPU新产品的推出以及推理等场景的丰富,国内GPU生态也有望更加丰富,进一步可能存在新的变化。国产化的大趋势下,通用服务器市场格局或同样产生变化。国产化CPU服务器中,X86解决方案目前有海光、兆芯、澜起,并以海光为主;ARM解决方案有华为鲲鹏、飞腾等。中国移动2021-2022年PC服务器集采中,采用海光芯片的服务器59982台占比20.90%,采用鲲鹏芯片的服务器58901台,占比20.53%,合计整体国产服务器占比高达41.43%。近期中国移动2024年PC服务器产品集采项目中,ARM服务器对比X86服务器的招投标数量达1.71:1,ARM服务器份额超越X86。3.2交换机:以太网高速产品逐步成熟,高端产品预计实现快速增长AI部署需要更大的网络容量,数据中心交换带宽当前处于每两年翻一番的速度快速增长。2022年8月,博通发布Tomahawk5,交换带宽提升至51.2T,serdes速率达到100Gb/sec,单通道速率最高达到800G,可以支持800G、1.6T网络部署。下一代交换机带宽将向102.4T升级,进一步为1.6T、3.2T网络奠定基础。受益于AI发展的带动,高端交换机需求快速增长。根据IDC数据,2023年全球以太网交换机收入达到442亿美元,同比增长20.1%,其中数据中心部分的市场收入同比增长13.6%,占整个市场收入的41.5%,2023年全年,数据中心部分200/400GbE交换机的收入同比增长68.9%。工业富联2023年年报显示,800G高速交换机已进行NPI,预计2024年将开始上量并贡献营业收入,预计2024年将是800Gbps端口部署的重要一年,预计到2027年400Gbps/800Gbps的端口数量渗透率将达到40%以上。国内由于政企等需求较弱、高端AI算力芯片供应短缺等影响,IDC数据,2023年中国以太网交换机收入同比下降4%(2022年规模近50亿美元),但2023年四季度同比增长了9.1%,随着国内算力建设,预计国内高端交换机渗透提升将加速,拉动整体需求。Infiniband当前份额提升。AI高性能计算场景对于网络性能要求进一步提升。InfiniBand最重要的一个特点是采用RDMA协议(远程直接内存访问),从而实现低时延。相较于传统TCP/IP网络协议,RDMA可以让应用与网卡之间直接进行数据读写,无需操作系统内核的介入,从而使得数据传输时延显著降低。InfiniBand技术以端到端流量控制为网络数据包收发的基础,能够确保无拥塞发出报文,从而大幅降低规避丢包所导致的网络性能下降的风险。并且InfiniBand引入SHARP技术(可扩展分层聚合和归约协议),使得系统能够在转发数据的同时在交换机内进行计算,以降低计算节点间进行数据传输的次数,从而大幅提升计算效率。InfiniBand作为一个用于高性能计算的网络通信标准,其优势在于高吞吐和低延迟,可以用于计算机和计算机、计算机和存储以及存储之间的高速交换互连,InfiniBand目前传输速度达到400Gb/s。根据技术发展路线图,2024年IBTA计划推出XDR产品,四通道对应速率800Gb/s,八通道对应速率是1600Gb/s,并将于2年后发布GDR产品,四通道速率达1600Gb/s。当前在IB市场上,主要是Nvidia(收购的Mellanox公司)和Intel(收购的Qlogic公司)两大玩家。得益于更优秀的性能以及英伟达的一体化销售战略,目前Infiniband在AI市场处于领先地位。以太网也持续提升性能支撑高性能计算场景。以太网也有相关RDMA技术标准,尤其是RoCE(RDMAoverConvergedEthernet)的出现和成熟,RDMA在基于以太网的数据中心得到规模应用。IBTA在2010年发布了RoCE协议技术标准,在2014年发布了RoCEv2协议技术标准,经过多年的发展,RoCE已经具备路由能力,且在性能表现提升明显。2022年11月,Broadcom和Arista宣布了针对基于融合以太网(RoCE)的远程直接内存访问(RDMA)优化的开放式端到端网络解决方案。2023年5月,英伟达推出NVIDIASpectrum-X,交换带宽51.2T,通过RoCE扩展提升NVIDIA集体通信库性能。但RDMA原本设计用于连接较小规模的节点,其设计本身是为了高性能低延时,这使得它对网络有很高的要求,特别是网络不能丢包,否则性能下降会很大,这对底层网络硬件提出了更大的挑战,同时也限制了RDMA的网络规模。另外RDMA通过硬件实现高带宽低时延,对CPU的负载很小,硬件的使用和管理较为复杂。面对AI高性能计算场景,全球成立超以太网联盟UEC、中国移动推动全调度以太网GSE,进一步提升以太网传输性能。2023年7月,硬件设备厂商博通、AMD、思科、英特尔、Arista、Eviden、HP和超大规模云厂商Meta、微软共同创立UEC(UltraEthernetConsortium,超以太网联盟),在物理层、链路层、传输层和软件方面致力于开发开放的“UltraEthernet”解决方案,打造高性能以太网,以新形式进行传输层处理,在非无损网络的情况下也可实现以太网性能提升,较RDMA更灵活。2023年8月,中国移动研究院携手30余家合作伙伴启动“全调度以太网(GSE)推进计划”,基于逐包的以太网转发和全局调度机制,突破传统无损以太性能瓶颈,2023年9月,中国移动研究院携手合作伙伴发布业界首款“全调度以太网(GSE)”样机。综合来看,以太网支撑高性能计算场景已经逐步得到验证。CPO、硅光等技术将在高端交换机中使用。共封装光学(CPO)是业界公认的未来更高速率光通信的主流产品形态之一,可显著降低交换机的功耗和成本。随着交换机带宽从最初的640G升级到51.2T,Serdes速率不断升级叠加数量的持续增加,交换机总功耗大幅提升约22倍,而CPO技术能够有效降低Serdes的功耗,因此在51.2T及以上带宽交换机时代,CPO有望实现突破。硅光芯片是CPO交换机中光引擎的最佳产品形态,有望在未来得到广泛应用。海外博通、英特尔、Meta等厂商在CPO交换机产品均有布局。新华三2023年6月首发51.2T800GCPO硅光数据中心交换机,融合CPO硅光技术、液冷散热设计、智能无损等技术,满足智算网络对高吞吐、低时延、绿色节能的需求,其基于数据中心RoCE全业务场景的解决方案也已经逐步商用落地。锐捷网络也已经推出51.2T硅光NPO交换机和25.6T硅光NPO交换机等产品。国内AI服务器部署规模的增加、国内GPU芯片的持续迭代、以太网高速交换机方案的成熟,将利好国内交换机厂商参与国内算力建设,国内交换机厂商400G、800G相关订单预计将实现高速增长。交换机具备技术壁垒,国内厂商已推出高端产品应对AI需求。全球来看,全球以太网交换机领域,思科份额第一,此外Arista、华为、HPE等份额居前。国内市场来看,参考IDC数据,2023年一季度,新华三(34.5%)、华为(30.9%)、锐捷(14.9%)位列国内前三。目前国内多家交换机厂商均推出了51.2T交换机,锐捷在2022年3月推出了51.2T硅光NPO冷板式液冷交换机,新华三在2023年6月推出了51.2T800GCPO硅光数据中心交换机(H3CS9827系列),浪潮在2023年11月推出了旗舰级51.2T高性能交换机(SC8670EL-128QH)。互联网厂商加大自研,或引起格局新的变化。阿里、腾讯、字节在2023年均发布了自研的51.2T白盒交换机并宣布规模商用,分别是阿里的“白虎”、腾讯的TCS9500和字节跳动的B5020。互联网厂商的强势入局或带来市场份额新的变化。以太网交换设备由以太网交换芯片、CPU、PHY、PCB、接口/端口子系统等组成,高速交换机需求也将直接拉动高速交换芯片需求。全球以太网交换芯片主要以博通、美满、高通、华为、瑞昱、英伟达、英特尔等厂商为主,其中思科、华为以自用芯片为主。国内交换机市场以博通、美满、瑞昱、华为、盛科通信等厂商参与为主,参考盛科通信招股书,2020年中国商用以太网交换芯片市场以销售额口径统计,份额排名前三的供应商合计占据了97.8%的市场份额,其中博通、美满和瑞昱分别以61.7%、20.0%和16.1%的市占率排名前三位,盛科通信的销售额排名第四,占据1.6%的市场份额。国内厂商在高速交换芯片领域与海外仍有差距,国产化趋势下,国内厂商也正在加速追赶,盛科通信在招股说明书中提到,公司拟于2024年推出Arctic系列,交换容量最高达到25.6Tbps,支持最大端口速率800G,面向超大规模数据中心,交换容量基本达到头部竞争对手水平。3.3光模块:预计国内2024年400G等光模块需求大幅增长2022年开始,北美传统云计算市场的光模块已经开始向800G速率升级,2024年800G光模块的出货量预计大幅增长。从传统数通市场的发展历史来看,光模块速率已经升级到800G的速率,对应电口单个Serdes的速率100G,光路单个速率也到50GBaud(EML的速率),经过PAM4调制后达到100G速率。800G光模块2022年底开始小批量出货,2023年需求主要来自于谷歌和英伟达(含自用与外售)。2024年800G预计有望大幅增长。1.6T光模块有望在2024年下半年小批量出货并有望在2025年大幅增长,同时建议重点关注硅光、薄膜铌酸锂等新技术的渗透率提升过程。AI对于带宽的需求是没有极限的,带宽越大,单位bit传输的成本更低、功耗更低及尺寸更小。光模块速率升级到1.6T的速率,目前电口的速率为100Gbps,而光口将逐步从100G升级到200G。得益于网络较高的性价比,1.6T光模块有望加速应用,有望在2024年下半年小批量出货并有望在2025年大幅增长,从下游客户来看,英伟达、谷歌和亚马逊可能会是1.6T光模块的主要需求方。国内光模块最新代际发展来看稍晚于海外,2024年预计400G需求大幅增长,部分头部CSP采购800G产品。目前,英伟达的A100GPU主要对应使用200G光模块,H100GPU主要对应使用800G光模块。每个A100GPU配一张MellanoxHDR200Gb/sInfiniband网卡,每个H100GPU配一张MellanoxNDR400Gb/sInfiniband网卡。英伟达在H100SuperPOD的设计中,采用了800G的光模块,在光口采用1个800G光模块可以替代2个400G光模块,在电口也可以将8个SerDes通道进行整合,与光口的8个100G通道一一对应。因此,在这种设计之下,交换机的通道密度提高,物理尺寸显著降低。国内GPU与网卡之间连接多采用PCIe,PCIe连接方式多决定光模块的使用情况。参考华为昇腾官网信息,昇腾Atlas300TA2训练卡PCIe接口采用PCIex16Gen5.0,网络采用1*200GEQSFP-DD接口。国内同样也可以采用1个400G光模块替代2个200G光模块的方式,提升通道密度。另外PCIex16Gen5.0接口网络也可以采用400G光模块实现无阻塞。随着国内AI服务器发货增长,预计也将带动相关光模块环节放量。3.4液冷:产业趋势明确,2024年进入液冷规模部署阶段液冷是趋势相对已经明确。随着GPU算力的提升,芯片需要在更短时间内完成更多运算,必然伴随芯片能耗的加大,对于芯片散热的要求将持续提升,双鸿预计,2026年AI晶片耗能有望超过2000W。液冷预计将成为服务器散热的主要方式,英伟达最新一代blackwellcomputenode采用liquid-cooledMGXdesign。液冷方案分为冷板式液冷、浸没式(单相、两相)等,当前从行业成熟度和成本维度,冷板式液冷方案占优,预期将成为当前高性能芯片液冷的主要方案。同时,产业链相关厂商也在持续研发,通过液体升级、架构设计、方案组合等不同方式进一步提升散热的效率、部署便捷性、成本性价比等,以应对不断提升的芯片功耗和散热需求。产业链角度分析,冷板式液冷主要分为在服务器内部的冷板、管路、快接等部件,以及进行冷量分配的CDU、manifold等,以及对于散热进行补充的风冷部分。服务器内部的环节,主要由服务器厂商进行采购,部分芯片厂商在供应链环节具备一定话语权。CDU、Manifold相关的冷量分配系统,主要由互联网厂商、运营商、数据中心厂商或集成商、模块化设备提供商等下游客户进行采购。不同厂商参与的环节不同,整体的业务可达空间也存在差异。近期海外算力相关散热供应链公司也积极布局液冷。超微电脑表示,至2024年6月,超威电脑的液冷机架产能可达每月1500个,总机架产能将达到5000个,液冷占比30%。双鸿预测,到2024年第4季,液冷和风冷的散热需求将达到50%比50%的水平。奇鋐AVC预计,2024年由于AI伺服器需求增长带动散热需求提升,散热产品升级有望加速,水冷散热未来预期较好,液冷散热产品将在2024年下半年起小量出货,2025年有望呈现爆发性成长。维谛表示,计划在2024年底将液体冷却解决方案的生产规模扩大40倍以上。CoolerMaster在2023年11月发布了一体液冷主机CoolingX和迷你液冷主机SneakerX,并在2024年初公布了公司的战略蓝图,在卓越散热技术和科技DIY服务的耦合视角下推进技术生态系统布局。国内运营商快速推进,新增AI服务器招标中液冷渗透比例已经达到大份额。2023年6月,三大运营商联合发布《电信运营商液冷技术白皮书》,提出2023年为技术验证阶段,三大运营商将开展技术验证,引领形成液冷机柜与服务器解耦标准,主流厂家解耦液冷产品完成研发;2024年为规模试验阶段,新建项目10%规模试点液冷技术,推进生态成熟;2025年及以后,开展规模应用,50%以上数据中心项目应用液冷技术,实现技术、生态、应用全面领先。2023年8月,中国电信AI算力服务器(2023-2024年)集中采购项目中,采购的G系列训练型服务器中,风冷、液冷的比例已经相当。2023年9月,中国移动启动的2023年至2024年新型智算中心(试验网)集采(仅统计标包4-12,标包1-3采购失败)中,特定场景AI训练服务器合计集采1658台(其中液冷1500台,占比90%)、特定场景AI推理服务器合计集采80台(其中液冷64台,占比80%)。液冷进入规模部署阶段,国内行业空间超200亿元并有望进一步提升。预计液冷2024年将进入规模部署阶段,并且我们认为随着规模应用带来的方案成熟度的验证以及成本端的下降,叠加PUE监管要求的实质性落地,液冷有望进一步向通用服务器市场进行渗透,短中期来看,冷板式液冷方案是主流,通过对于AI服务器出货量、通用服务器出货量、单KW成本造价、液冷渗透率等假设,我们匡算整体规模有望超过200亿元。而随着AI的发展,带动服务器的量有望进一步明显提升,行业规模有望进一步打开。国内上市公司也在积极布局液冷,不同厂商参与环节不同,对应的市场空间、直接客户、能力要求也存在差异。服务器内部的冷板、接头等环节主要面向服务器厂商销售,部分GPU芯片厂商也具备一定话语权,产品是精密加工件,更加注重热设计能力、生产制造能力、成本管控能力等。CDU、manifold等主要面向最终客户、第三方数据中心厂商、集成商、整柜级产品提供商等销售,更加注重整个制冷循环的系统设计能力等。3.5连接器/线束:AI带动连接器系统向112G/224G等升级通信连接器是传输电流及信号的关键器件,主要应用在各类通讯设备如服务器、5G通讯基站、服务器、数据中心、以太网、高端存储设备等场景。通信领域的连接器产品多为定制化产品,会同时使用电连接器、射频连接器、光连接器等。以服务器场景为例,服务器场景用到的连接器,按照模块分类包括存储模块用DDR连接器、数据传输模块用夹层连接器、电源模块用大电流连接器、光传输模块用光纤连接器、信号传输模块用高速背板连接器等。按照连接类型分类包括内部和外部I/O类连接器:外部I/O类连接器主要包括Type-A、Type-C、RJ45、SFP、QSFP、D-SUB等;内部连接器主要有PCIe、DDR、Mini-SAS、Mini-SASHD、GenZ、SlimSAS、高速背板连接器等。AI发展,GPU性能不断提升,相关数据中心连接系统架构也向高速升级,从10Gbps-40Gbps向56Gbps、112Gbps、224Gbps等持续迭代升级,当前海外已经发展到224Gbps的数据传输速率,以满足人工智能、1.6T网络等高速连接场景的需求。常用的信号传输分为单端信号和差分信号,差分信号由两根单端信号构成,发射器传输差分信号时,会将单端信号拆分成两个信号幅值相等相位相反的两个信号,再由接收器识别转化为单端信号,接收器会将两个单端信号做一个减法,得到的信号幅值将是单个信号的两倍。差分信号由于抗干扰能力强,在高速信号传输中被广泛应用。连接器速率提升的过程中,对PCB路由复杂性、PCB材料和层数、散热、微间距下的串扰和插入损耗等提出更高要求,技术难度显著提升。以差分阻抗为例,差分阻抗和上升时间强相关,上升时间越短,阻抗波动越大,阻抗越难控制;上升时间和带宽成反比,对于速率越高的产品,阻抗波动会越大,匹配难度会明显增加。高速背板连接器:高速背板连接器主要用于单板和背板之间的数据连接,传递高速差分信号或单端信号等。华为发布的AI训练集群Atlas900AI采用Cable背板连接器架构,实现服务器间及服务器与接入层交换机的互联。当前,传统的背板架构(所有板卡插在背板的同一面,通过无源铜背板上的走线完成各板卡直接的交互)存在走线长、损耗大,无法满足带宽和容量等瓶颈,正交架构未来渗透有望提升。正交架构是指主控板、线路板、接口板等与交换网板处于正交的硬件结构,通过正交连接器直接相连,进一步更大限度缩短了线路板到交换网的走线距离。高速I/O连接器:高速I/O连接器主要用于交换机与交换机、交换机与服务器之间的数据传输,此前主要采用SFP28/SFP56、QSFP28/QSFP56等I/O连接器进行连接,56GbpsQSFP-DDI/O模块可以实现400G端口容量。随着传输速率的提升,高速I/O连接器同样向112G、224G速率升级。使用64×224GbpsQSFP-DD或64×224GbpsOSFP形态,可以支持512×224Gbps=102.4T规格的芯片,单口1.6Tbps(224Gbps×8)。使用32×OSFP-XD形态,可以支持512×224Gbps=102.4T规格的芯片,单口3.2Tbps(224Gbps×16);使用64×OSFP-XD的形态,支持1024×112Gbps=204.8T规格的芯片,单口3.2Tbps(224Gbps×16)。铜互联性能在逐步提升,有源铜线(ACC)和有源电缆(AEC)可能会取代一些无源铜线直连电缆(DAC),考虑到随着带宽和速率提升,电信号的有效传输距离将明显缩短,我们认为未来光学方案的渗透率将提升。电信号在铜线中传输存在损耗,通信带宽提升,趋肤效应导致在铜线和PCBTrace中传输损耗增加,连接器头子损耗增加,封装Trace损耗增加,因此有效传输距离将明显缩短。IEEEP802.3df发布的目标中单通道100Gbps速率的电信号传输的距离为2m。对于单通道200Gbps电信号的传输距离,谷歌的在报告中论证过达到1m的可行性,Intel认为在优良材料上可达到1m。随着速率的持续提升,我们认为未来光学方案的渗透率将提升,而短期内光学方案的功耗和成本问题,将会有新技术或新产品来解决,但底层仍然会是光学方案。目前在224Gbps的连接系统中,仍以海外厂商更为领先,安费诺、Molex、TI等全球头部厂商推出了相对完整的224G连接系统解决方案。国内由于整体网络侧部署升级略晚于海外,同样连接系统升级也会略晚于海外。当前国内厂商产品仍以56Gbps为主,在部分产品领域实现112Gbps、224Gbps产品突破。3.6PCB:AI拉动高速PCB升级,利好头部份额和盈利提升AI发展驱动AI服务器、HPC、交换机和存储等基础设施系统对大尺寸、高层数、高阶HDI以及高频高速PCB产品的强劲需求,并对其技术层次和品质提出更高的要求,拉动PCB需求增长。AI服务器:新增GPU相关PCB需求,CPU平台PCB升级,此外在存储、背板等多环节用量和等级要求也会提升。1)新增GPU所需PCB且性能要求较高。参考DIGITIMES信息,用于英伟达A100、H100等GPU产品的PCB层数较高,普遍在16-24层。参考雅虎新闻信息,英伟达新的GB200设计集成了OAM/UBB,采用M8级别CCL和20层HDI,预计单GPU对应的PCB价值量较普通B系列AI服务器相比增加约10%,与H系列相比增加约3
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 城市绿地景观设计方案实例
- 预制管桩基础施工方案
- 安防施工方案要点
- 施工方案的主要构成部分是什么
- 施工方案优化流程
- 核电站反应堆厂房防水施工方案
- 商场地面防水涂料施工方案
- 泡沫混凝土隔音施工方案
- 沥青路面施工技术应用方案
- 施工方案怎么写及流程
- 西农植物病理学课件
- 三级安全教育试题(公司级、部门级、班组级)真题题库
- 2025年超星尔雅学习通《法律与社会议题》考试备考题库及答案解析
- 西北政法大学介绍
- 2024山东交通学院辅导员招聘笔试真题及答案
- 小型手持式采茶机
- 太空交通管理规则-洞察及研究
- 腹腔镜手术应用推广方案与技术指南
- 北京市西城区中学课余训练:现状洞察与发展探究
- 规划展馆改造项目方案(3篇)
- 玉米dh育种技术
评论
0/150
提交评论