人工智能行业AI算力报告:穿越AI的基石算力基建的起始_第1页
人工智能行业AI算力报告:穿越AI的基石算力基建的起始_第2页
人工智能行业AI算力报告:穿越AI的基石算力基建的起始_第3页
人工智能行业AI算力报告:穿越AI的基石算力基建的起始_第4页
人工智能行业AI算力报告:穿越AI的基石算力基建的起始_第5页
已阅读5页,还剩189页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

姓名:王聪(分析师)姓名:文紫妍(分析师)证书编号:S0880523070001姓名:王彦龙(分析师)姓名:黎明聪(研究助理)证书编号:S0880121080014姓名:舒迪(分析师)姓名:刘校(研究助理)邮箱:liuxiao026731@证书编号:S0880122070050姓名:谭佩雯(分析师)01010202030300405052/CONTENTS/3/4/1.11.1•智能世界三要素:数据、算力、算法是智能世界三要素,其中算力平台是核心基础。•算力两大类:通用算力、HPC(高性能计算,High-performancecomputing)算力。其中通用算力计算量小,用于常规应用。HPC算力是一个计算机集群系统,通过各种互联技术将多个计算机系统连接在一起,利用所有被连接系统的综合计算能力来处理大型计算问题。•算力基础设施从云向算泛在演进,其位置的分布从中心向边缘和端侧泛在延伸,将出现云、边、端三级算力架构。图:专用算力是算力中极为重要一环图:图:专用算力是算力中极为重要一环通用算力算力类型力科学计算类:物理化学、气象环保、生命科学、天文探测等智能计算类:机器学习、深度学习、数据分析等图:算力基础设施从云向算泛在演进51.1AI大模型带动算力需求超越摩尔定律增长1.1•AI模型训练算力增长速度超越芯片摩尔定律。AI训练任务中的算力增长(所需算力每3.5个月翻一倍)已经超越摩尔定律(晶体管数量每18月翻一倍)。•ChatGPT仅推出两个月,月活跃用户数预计已达1亿。ChatGPT在2023年1月达到1亿月活跃用户,平均每天有1,300多万访客,用2个月时间达到1亿ramFacebookTwitter图:大模型时代算力需求增长超越摩尔定律图:chatgpt仅用2个月月活用户突破1亿六年半五五年四年半三年半两年半个月数据来源:GoogleScholar,国泰君安证券研究ChatGPTTikTokgramWhatsApp62.08E+002.67E+013.82E+026.16E+004.93E+017.42E+002.75E+0139E+023.64E+03模型总计算量总计算量 (PFlop/s-day)(Flops2.08E+002.67E+013.82E+026.16E+004.93E+017.42E+002.75E+0139E+023.64E+03模型总计算量总计算量 (PFlop/s-day)(Flops)参数量 (百万个)令牌数量 (十亿)T5模型T5-SmallT5-BaseT5-LargeT5-3BT5-11B7.64E+0004E+0280E+206.60E+202.31E+219.00E+213.30E+22BERT模型BERT-BaseBERT-LargeROBERTa-Base89E+0074E+0064E+2033E+2050E+21GPT模型ROBERTa-LargeGPT-3SmallGPT-3MediumGPT-3LargeGPT-3XLGPT-32.7BGPT-36.7BGPT-313BGPT-3175B2.60E+0058E+0152E+012.68E+024.26E+212.25E+206.41E+2037E+212.38E+214.77E+2120E+222.31E+223.14E+237•预训练算力需求:训练一次13亿参数的GPT-3XL模型需要的全部算力约为27.5PFlop/s-day,而训练一次1,746亿参数的GPT-3模型需要的算力约为3,640PFlop/s-day,对应的单次训练成本高达460万美元。•日常运营算力需求:ChatGPT在日常与用户交互过程中需要大量的算力支持,结合访问量与内容量测算,单月运营算力约4,800PFlop/s-day;2023年1月ChatGPT官网总访问量已经达到6.16亿次,而ChatGPT每次交互产生的算力云服务成本约1~5美分,对应的单月运营成本高达千万美元。•调优迭代算力需求:ChatGPT模型需要不断进行Finetune模型调优,以确保模型处于最佳应用状态;预计每月模型调优带来的算力需求为82.5~137.5PFlop/s-day。图:模型的尺寸在过去5年增长了5000倍表:不同NLP模型参数量及训练算力对比1.1MR、车载等数字经济新型应用场景带来新的算力需求1.1•MR的推出更带来对低延时网络传输和底层算力技术升级的需求。虚拟世界需要强大的图像实时渲染能力、计算和存储海量数据资源,头显交互设备的出现将进一步增加对云计算和边缘计算的应用需求。云计算能将终端渲染逐步迁移至云端,基于规模效应摊低运算成本,提升服务器使用效率,提升虚拟世界的可进入性。而边缘计算则更能满足实时数据分析需求、缓解中心云的计算负载。面对的计算量越来越大,网络架构升级、本地实时处理能力、“大容量缓存和存储”规格将成为硬需求。图:算力升级是支撑虚拟世界内容创作与真实交互的保障图:2025年L4等级无人自动驾驶数据存储需求81.2算力与经济水平直接挂钩,且具有倍增效应1.2•全球各国算力规模与经济发展水平呈现正相关。2021年算力规模前20的国家中有17个是全球排名前20的经济体,并且前五名排名一致。•算力对经济有倍增效应。数字经济作为GDP的组成部分,占比正在逐年增加,而算力是数字化技术持续发挥效益的根本性要素。根据IDC的报告,计算力指数平均每提高1个点,数字经济和GDP将分别增长3.3‰和1.8‰。当一个国家的计算力指数达到40分以上时,指数每提升1点,对于GDP增长的拉动将提高到1.5倍;当计算力指数达到60分以上时,对GDP的拉动将进一步提升至2.9倍。图:算力排名与经济排名较为吻合图:算力对经济有倍增效应数据来源:中国信通院信通院2022年算力白皮书91.2中美算力布局较为领先,中国智能算力在追赶1.2•智能算力规模和增速亮眼。根据信通院算力白皮书,2021年全球算力增速超过40%,华为GIV预测2030年人类将迎来YB数据时代,全球算力平均年增速达到65%,其中基础算力平均年增速达27%;智能算力占大头,平均年增速超过80%;超算算力平均年增速超过34%。•中美算力在全球属于领先地位。美国、中国、欧洲、日本在全球算力规模中的份额分别为34%、33%、14%和5%,其中全球基础算力美国份额达37%,中国以26%份额排名第二;智能算力方面,中国、美国分别占比为45%和28%;美国、日本、中国在超级计算综合性能指标方面份额分别为图:全球算力规模增长速度在40%以上图:中美全球算力分布较为领先图:中国占比较大为基础算力,智能算力当前快速赶上数据来源:信通院算力白皮书1.2海外以互联网大厂为主导,资本开支向AI大幅倾斜1.2•美国人工智能公司在过去的五年间获得的投资占到了全球的56%,数百亿美元,谷歌、微软、亚马逊、Meta四家美国科技巨头在经历了2022和2023年初史无前例的大裁员之后,这些公司一边降本增效,一边AllinAI。表:北美大厂积极自研和购买算力芯片自研芯片算力布局2023Q12023年展望投入领域AWStrainiumAWS宣布即将推出的EC2超级集群 (EC2P5实例)可扩展至20000个互连的H100。我们预计在数据中心建设和服务器的投入会在Q2以及后面持续的提升我们预计总体资本开支会略微高于2022年,同时资本开支会在技术基础设施显著提升,而在办公室设施下降数据中心,服务器,供应链GoogleTPUv4当前已经部署了数十台TPUv4超级计算机,每台拥有4096个TPU芯片;发布了专门用于推理或训练的机器学习定制化芯片于2022年的590亿美金,去年主要因为完善物流网络的投资,未来这个数字会逐步减少。我们将持续投入基础设施来支持AWS客户需求,包括支持LLM和生成式AIAWSanalysis认为其是2023年H100GPU最大的买家,据专家交流可能采购了3万H上。投入的三个领域:1)非AI计算需求:计算和存储来支撑现有业务;2)核心的AI投资,支持Discoveryengine、排序广告等的建设;当我们评估ROI感觉可以的话,这些都会提高我们对AI的投入;3)支持AI现在虽然难评估,但我们未来会提高资本开支,同时平衡好AI能力的建设及将提升我们在生成式AI的容量投资(earningtranscript)数据中心MicrosoftAthenaAzure云拥有10000个GPU和285000个CPU内核;据专家交流北美各家可能采购了3万片H100以我们希望引领AI平台的浪潮并做相应投资来实现它我们预计资本开支会有显著的后续环比增长,主要驱动为AzureAI基础设施。注意可能有正常的季度支出波动AzureAI基础设施来源:公司官网、国泰君安证券研究1.2行业/细分领域海外公司2022年营收(亿美元)1.2行业/细分领域海外公司2022年营收(亿美元)中国对标公司型通用人工智能、自然语言处理、多模态模型OpenA(ChatGPT)——百度(文心一言)、昆仑万维自然语言处理、多模态模型、云计算谷歌(PaLM)阿里巴巴(通义千问)、科大讯飞、三六零办公软件、自然语言处理微软(Microsoft365Copilot)金山办公(WPSai)自然语言处理、多模态模型、计算机视觉Meta(LLaMa)腾讯(混元大模型)光模块/器件芯片光模块II-VI(Finisar)中际旭创、天孚通信、新易盛等NeoPhotonics2AOI2光芯片Lumentum源杰科技、光迅科技、长光华芯、仕佳光子、永鼎股份SPCredoTechnology[CRDO.O]1橙科、芯速联Marvell(Inphi)器GPU、AI加速器英伟达(NVDA)寒武纪、海光信息AMD(AMD)英特尔(INTC)FPGA、AI加速器赛灵思(XLNX)安路科技模拟芯片、功率管理芯片英飞凌(IFX)杰华特臻鼎科技鹏鼎控股、东山精密、沪电股份、景旺电子欣兴集团迅达科技(TTM)华通电子健鼎科技换机企业网络、数据中心网络、云计算网络等Cisco华为、浪潮、中兴、联想、紫光、菲菱科思AristaNetworksHPEJuniperDellTechnologiesIDC企业网络、数据中心网络、云计算网络等ExtremeNetworks新华三、万国数据、润泽科技、中国移动、中国电信、中国联通、奥飞数据、云赛智联、光环新网、数据港IDC服务、互联网交换、云服务EquinixIDC服务、数据中心基础设施DigtalRealtyTrustIDC服务、电信服务、云服务NTTglobaldatacenterVertiv1.2国内数字&算力政策频出,当前走向地方细化落地1.2•中国政府基于数字经济发展大背景,在2023年各个省市加快了AI及智算超算的规划和投入。表:我国及地方出台多个政策和文件文件名时间发布单位1《北京市加快建设具有全球影响力的人工智能创新策源地实施方案(2023-2025年)》发展的若干措施》2023/5/30北京市人民政府2《深圳市加快推动人工智能高质量发展高水平应用行动方案(2023—2024年)》2023/5/31深圳人民政府3《上海市推进算力资源统一调度指导意见》2023/4/19上海市经济信息化委4《成都市围绕超算智算加快算力产业发展的政策措施》2023/1/12成都市经信局5《数字中国建设整体布局规划》2023/2/27中共中央、国务院6《关于数字经济发展情况的报告》2023/2十三届全国人大常委会第三十七次会议7《关于构建数据基础制度更好发挥数据要素作用2022/12/2中共中央、国务院82022/1/129来源:公司官网、国泰君安证券研究来源:公司官网、国泰君安证券研究2021/11/15工信部《全国一体化大数据中心协同创新体系算力枢纽实施方案》2021/5/26工信部、国家能源局表:各地算力平台开始陆续实施算力平台地方参与单位时间1算力互联互通验证平台北京中国电信、中科院信息2023/3/32集群算力服务调度与采购平台北京中国通信工业协会数据中心委员会、北京数字科智技术有限公司2023/2/283上海市人工智能公共算力服务平台上海上海超算中心2023/2/203南京市城市算力网运营平台南京中科南京信息高铁研究院2023/2/244算力一体化统一管理服务平台合肥合肥市大数据资产运营有限公司2023/1/165郑州城市算力网郑州国家信息中心、中国科学院计算技术研究所、粤港澳大湾区大数据研究院等2023/2/276东数西算一体化算力服务平台中国电信宁夏2023/2/247贵州枢纽算力调度平台贵州云上贵州、中软国际云智能业务集团2022年5月26日1.3德科立联特科技 博创科技太辰光腾景科技模块封装中际旭创新易盛光迅科技华工科技剑桥科技铭普光磁天孚通信 源杰科技仕佳光子光库科技长光华芯 鹏鼎控股胜宏科技沪电股份锐捷网络紫光股份 中兴通讯菲菱科思裕太微广和通SoC模组边缘算力全志科瑞芯翱捷科技微技 美格智移远通能信亚康股份首都在线运营商资源租赁运营/1.3德科立联特科技 博创科技太辰光腾景科技模块封装中际旭创新易盛光迅科技华工科技剑桥科技铭普光磁天孚通信 源杰科技仕佳光子光库科技长光华芯 鹏鼎控股胜宏科技沪电股份锐捷网络紫光股份 中兴通讯菲菱科思裕太微广和通SoC模组边缘算力全志科瑞芯翱捷科技微技 美格智移远通能信亚康股份首都在线运营商资源租赁运营/租赁 中国移动中国电信中国联通鸿博股份云赛智联模拟芯片模拟芯片杰华特晶丰明源帝奥微紫光国微复旦微电安路科技胜宏科技沪电股份胜宏科技沪电股份片片服务器澜起科技聚辰股份兆龙互联鼎通科技联技术算力芯片算力芯片景嘉微寒武纪中国长城海光科技景嘉微寒武纪中国长城海光科技整机整机中兴通讯烽火通信中科曙光神州数码拓维信息紫光股份中兴通讯存储存储江波龙德明利兆易创新江波龙德明利IDCIDC服务 润泽科技奥飞数据光环新网数据港宝信软件依米康英维克申菱环境佳力图 UPS科士达科华数科士达15/2.12.1AIGPUASP•AI服务器采用异构式架构,GPU数量远高于普通服务器。AI服务器和普通服务器的主要区别在于:1)架构不同,AI服务器采用CPUGPUFPGAASICCPUGPUAIGPU量通4颗以上。例如:NVIDIADGXA100包括8个A100GPU+2个AMDRomeCPU,而浪潮英信服务器NF5280M6仅配置1-2个英特尔第三代Xeon处理器。••景,AI算力需求的提升推动了GPU卡的运算速度和用量需求进一步增长。根据IDC数据,2022年GPU加速卡占据AI市场89%•表:AI服务器和普通服务器的区别类型典型产品芯片价格数量AI服务器A100A100Tensor8coreAMD2普通服务器浪潮英信服务器Xeon处理器数据来源:英伟达官网,浪潮信息官网,图:服务器成本构成情况80%60%40%20%%基础型高性能型推理型机器学习型CPUGPUmemorystorage其他00004002000图:中国智能算力规模及预测(单位:EFLOPS)2.1&2.1&•高速互连技术开创者,多卡互联优势显著。为实现超算模型的高速通信需求,英伟达开创式提出NVLink和NVSwitch技术:NVLinkGPUNVSwitchGPUCPU高性能计算系统,适用于更复杂和大规模的场景,用户可根据具体应用需求和系统配置来决定使用NVLink或NVSwitch。GH200超级芯片所采CPUGPUPCIeCUDACUDA用及工具的扩展,形成了广义的CUDA生态,表:NVLink和NVSwitch技术图:英伟达CUDA-XAINVLink第二代第三代第四代NVLink带宽GBs每个GPU最大链路数6架构支持NVIDIAVoltaNVIDIAAmpere第一代第二代第三代直连或节点中GPU数量最多8个最多8个最多8个NVSwitchGPU之间带宽GBs聚合总带宽架构支持NVIDIAVoltaNVIDIAAmpere数据来源:英伟达官网数据来源:英伟达官网2.10427482.1042748642017201820192020202120222023EAI服务器市场快速增长,以浪潮信息为主的国内厂家占据国内AI服务器主要市场。•头部厂商持续加单,国内AI芯片需求强劲。全球头部互联网厂商相继入局大模型赛道,以英伟达GPU为代表的算力核心产品订单AIAI场同样前景广阔。图:2022年中国AI服务器市场规模(亿美元)图:2022年中国AI服务器市场份额图:中国AI芯片市场规模(亿元)00250200020192020202120222023E来源:中商产业研究院,国泰君安证券研究浪潮华三宁畅安擎坤前华为宝德思腾合力其他来源:华经产研,国泰君安证券研究00040020002.12.1GPUAH,海外巨头英伟达切。A处理速度达到ABR。图:2022年中国AI芯片市场规模占比天数智芯壁仞沐曦科技寒武纪燧原GPUNPU……ASIC平头哥华为FPGAIDC据来源:各公司官网192.12.1的一环。英伟达不仅在硬件方面具有统治力,在软件平台也具有很强的竞争力,CUDA生AI全系列智能芯片与处理器产品提供统一的平台级基础系统软件CambriconNeuware,使开发的应用可以在云边端互相兼容,大幅减少云边端不同平台的开发和应用迁移成本。华为同样致力于“一平台双驱动”为核心的昇腾AI生态,已有200多家合作伙伴经过认证,围绕昇腾的开发在100多所高校开展了昇腾的人工智能课程。图:寒武纪CambriconNeuWare图:华为昇腾产业生态来源:寒武纪开发者论坛数据来源:华为官网2.1存储:AI服务器催动DRAM/NAND需求2.1AIAI数级增长。AI服务器对内存、硬盘存的提升是支持更大容量的内存满足当下实时负载增加的需求,提供更多外置硬盘插槽,并广泛支持NVME/图:AI大模型处理数据的吞吐量增长趋势2.12.1•HBM内存技术:新型高性能存储产品的竞争与短缺。HBM(HighBandwidthMemory,高带宽内存)是一款新型的CPU/GPU内存芯片,是将多个DDR芯片堆叠在一起后和GPU封装在一起,实现大容量和高位宽的DDR组合阵列。目前HBM占整个DRAM图:HBM图:HBM的堆叠结构图:HBM提供更快的数据处理速度2.12.1•HBM:突破‘内存墙’的新一代3DDRAM解决方案。“内存墙”是指处理器的运算能力超过了存储芯片的读取和写入能力,破了内存容量和带宽的瓶颈,打破了"内存墙"对提升算力的束缚,被看作是新一代DRAM的解决方案。图:存储带宽落后于算力成长速度形成“内存墙”数据来源:RISElab232.12.1力士于2022年6月开始生目前唯一一家批量出货HBM3的供应商,拥有超过95%的市场份额,这是大多数H100SKU所使用数据速率为5.6GT/s的12层24GBHBM3。三星紧随Hynix之后,预计将在2023年下半年发货HBM3,并正在大力投资以追赶市场份额。美光科技由于直到2018年,才开始从HMC转向HBM路线图,仍然停留在HBM2E,在HBM方面排名落后。图:SK海力士在新一代技术方面保持最强图:三星预计2023下半年发布HBM3数据来源:半导体行业观察数据来源:半导体行业观察2.2.1•并行接口传输,SerDes具有更高的速率(Gbps级)、更低的功耗,以及显著的成本优势,能够满足AI训练&推理等场景下高带用于电信、汽车、工业等领域。图:SerDes结构图:图:SerDes结构22.1••AI服务器算力提升显著,带动SerDes通信带宽需求激增。AI服务器网络模块升级主要表现为带宽增加,主要涉及的芯片是SerDes。高性能计算机性能提升主要源于单个结点计算能力增强和系统中结点数增加。一般而言,结点对互连带宽的要求与其处点计算能力迅速提高,系统对互连网络带宽的需求更加迫切。SerDes通道数量和每个通道传输速率,实现容量翻倍。表:SerDes技术演进年份2010201220142016201820202020E2022ESerDes数量25625622562SerDes速率(Gbps)55调制方式容量(Tb/s).642425.625.6.2SerDes2.1SerDes2.1•国内SerDes发展现状:•上游:半导体IP龙头芯原股份于2021年2月获得加拿大高速接口领域全球领导者Alphawave公司在国内一系列多标准SerDesIP的独家经销权。•中游:芯片设计领域,专注于高速混合芯片设计公司龙讯股份基于单通道12.5GbpsSerDes技术研发的通用高速信号延长芯片GPHYSerDes技术,可实现1.25~5G等不同数据多种上层协议。图:高速SerDes技术和各种接口的关系图:全球SerDes市场规模(单位:亿美元)15.2%CAGR502023E20302.2PCB规格加速升级,单机ASP持续上升2.2•相比于普通服务器,AI服务器的PCB增量主要体现在GPU板组中。由于AI服务器比普通服务器的GPU用量从1颗提升到8颗(参考英伟达DGXH100),相应GPU板组的PCB需求量增大且要求进一步提高。图:NVIDIADGXH100爆破图图:NVIDIADGXH100GPU板组爆破图2.2PCB规格加速升级,单机ASP持续上升2.2OAMGPUPCBNVIDIADGXHGPU器,因此其PCB用量显著AIOAMPCB由于AI服务器电路更加复杂,需要更大带宽和更高传输速率,因此OAM需要更高、奥士康、胜宏科技等均有领先布局。图:NVIDIADGXH100OAM实物图2.2PCB规格加速升级,单机ASP持续上升2.2H100的GPU板组包含4个NVSwitch。NVSwitchPCBNVIDIADGXHNVSwitch宽达到PCle5.0的7倍,意味着其覆铜板材料至少需要使用UltraLowLoss级别。图:NVIDIADGXH100NVSwitch实物图图:NVIDIADGXH100NVSwitch概念图2.2PCB规格加速升级,单机ASP持续上升2.2UBB是GPU模组板,用以承载OAM、NVSwitch等模块,面积随GPU、NVSwitch数量增加而增大。•由于其上集成部件较多,布线较为复杂,通常需要24~26层的超高层PCB板,ASP提升较大。aLowLossNVIDIADGXHUBB设计更为紧凑,使用HDI技术会进一步提高ASP。•目前沪电股份在超高层和高密度PCB中优势领先,未来深度受益于AI服务器需求释放。图:NVIDIADGXH100UBB实物图2.2PCB规格加速升级,单机ASP持续上升2.2•从覆铜板(CCL)技术升级角度,将目前最新的IntelEagleStream平台与前代平台对比,可明显看出服务器平台用覆铜板升级处于3.3-3.6。表:Intel不同平台CCL性能对比速率提高,Dk与Dr值下降目覆铜板类型sDf对标松下电工产品2.2PCB规格加速升级,单机ASP持续上升2.2•H100等GPU的芯片封装通常使用2.5D/3D封装技术,而ABF载板是2.5D/3D封装的核心材料之一。随着GPU需求持续走高,ABF载路、兴森科技等产品逐步突破,未来有望深度受益于国产替代。图:H100TENSORCOREGPU实物图台)台)2.32.3图:2022-2026全球AI服务器出货量预估(单位:千图:2022全球AI服务器市场客户采购结构2.32.3••图:2021全球服务器供应商收入(单位:百万美元)图:2022H1全球AI服务器市场份额占比统计2.32.3•数据流量快速增长和人工智能快速发展推动数据中心网络架构转型,有望驱动交换机数量和端口速率上行,高速以太网交换机市场有望IDCGG87亿美元。份额持续保持领先。图:我国高速数据中心交换机市场规模(单位:亿美元)图:2020-2022Q3中国交换机市场份额华为新华三中兴锐捷网络其他34.33%90%80%70%60%50%40%30%20%10%34.01%36.54%3536.54%35.59%2020202122Q3202020212.32.3AIGHNvlinkTbG,服务器交换机的比例从A100的1:1.2提升到1:5。800GCPO硅光数据中心交换机,均可支持AI训练业务需求。图:DGXGH200采用胖树和无阻塞的拓扑结构图:一个NVLink交换机为25.6Tb交换容量,32*800G端口2.32.3硬件配置与不同的软件协议进行匹配,下游客户可选择为交换机安装外部操作系统或在交换机厂商已提供开放式操作系统基础上开发上层应用软件,客户可组建更为开放灵活的网络方案,在大幅提高数据中心运维效率的同时,降低了建网成本。难度小的优势未来将进一步凸显,锐捷网络等白盒交换机厂商在国内交换机市场中份额也逐步提高。图:白盒交换机降低了组网成本表:白盒交换机与其他类型交换机的对比种类裸金属交换机品牌裸金属交换机白盒交换机品牌交换机定义仅有硬件,ODM提供基础技术支持仅有硬件,OEM提供贴牌和技术支持/服务商品化硬件,预装网络操作系统品牌专门化硬件,预装操作系统硬件成本低低低高硬件种类商品化硬件(包括ASIC)商品化硬件(包括ASIC)商品化硬件(包括ASIC)品牌硬件(系统化ASIC)网络操作系统没有(顾客选择第三方操作系统)没有(顾客选择第三方操作系统)预装厂商自己的操作系统或第三方操作系统品牌商自有操作系统2.4液冷:AI时代算力密度急速增加,早期以冷板式为主AI-响较小,浸没式和喷淋式散热效率更好但成本较高。目前,阿里巴巴以单相浸没式液冷为主要发展方向,其他用户以冷板式液冷试点应用居多。图:2019-2025年中国液冷图:2019-2025年中国液冷IDC市场规模(亿元)IDC液冷(保守)IDC液冷(乐观)图:2019-2025年中国液冷方案结构冷板式浸没式80%60%40%yoy80%60%40%yoy(保守)40%30%20%20%00201920202021E2022E2023E2024E2025E201201920202021E2022E2023E2024E2025E2.4液冷:三大运营商全面拥抱液冷•中科曙光、华为行业领先,英维克液冷方案全面布局,近年来竞争力不领导者位置,浪潮位于挑战者位置,戴尔中国、维谛技术和英维克位于IBM于可期待者位置。•三大运营商全面拥抱液冷,预计2025年能累计带来百亿左右增量市场空间。关键假设:(1)机柜数按复合5-10%增速增长;(2)冷板式方案占比7-8成;(3)浸没式方案单价约为冷板式的4-5倍;(4)平均新增机柜功率8-10kw;(5)暂时不考虑老旧改造只考虑新建。图:中国液冷数据中心能力竞争矩阵图表:国内厂商在液冷方面的布局企业名称储备液冷技术类型主要液冷产品推出时间英维克冷板式液冷、单相浸没液冷、相变浸没液冷等XGlacier服务器液冷解决方案Coolinside全链条液冷解决方案Coolinside全链条液冷6大集成交付方案年年年申菱环境冷板式液冷、单相浸没液冷、相变浸没液冷等天枢-液冷温控系统年高澜股份同飞股份佳力图冷板式液冷、浸没式液冷等冷板式液冷等冷板式液冷、浸没式液冷等冷板式液冷服务器热管理解决方案、浸没式液冷服务器热管理解决方案同飞数据中心板式液冷全链条整体解决方案技术储备和预研年年-依米康中兴通讯冷板式液冷、浸没式液冷等冷板式液冷、浸没式液冷技术储备和预研ICTICT液冷一体化解决方案-41/3.13.1运行效率问题:根据阿姆达尔定律,串行通信决定了并行系统整体运行效率,并行系统节点数越多,其通信占比越高,通信数据来源:星脉,效率提升显著数据来源:星脉23.13.1•我们认为升级需求侧主要来源于)云数据中心自然升级;训练推理的需求推动。•论文:提到)服务器计算训练需求个季度翻了倍,)个季度内分布式的训练工作流提升到原来倍图:传统数据中心架构图(传统云需求在较为明显)来源:国泰君安证券研究层级amazonSpine/Leaf400GFR4/DR4400GFR4/DR42*400GFR4Tor400GSR8/100GDR1400GDR4800GPSM8Server100GAOC100GAOC200GAOCgoogleSpine/Leaf2*400GFR42*800GFR4Tor8*100GPSM88*200GPSM8Server100GDAC/ACC100GDAC/ACCmicrosoftSpine/Leaf400GDR4、400GZR-Tor400GAOC-Server100GDAC-MetaSpine/Leaf400G(2*200GFR4)-Tor200GFR4-Server--百度Spine/Leaf400GFR4/DR4400GFR4/DR42*400FR4Tor400GSR8/100GDR1400GDR4800GPSM8Server100GAOC;2*200GSR4/AOC100GAOC200GAOC腾讯Spine/Leaf200GFR4400GFR4;400GDR4+2*400GFR4;2*400GDR4+Tor200GSR4400GDR4/400GSR4800GPSM8Server100GAOC/ACC/AOC100GDAC/ACC/AOC200GDAC/ACC/AOC里Spine/Leaf200GFR4400GFR4;400GDR4+2*400GFR4;2*400GDR4+Tor200GSR4400GDR4/400GSR4800GPSM8Server100GAOC/ACC/AOC100GDAC/ACC/AOC200GDAC/ACC/AOC图:训练、推理相关的需求增长远高于其他自然增长需求taCentersDesignofScale-upandScale-out3.13.1AI器接入侧速率快速提升。44数据来源:数数据来源:来源:Nvidia3.1800G主线:互联带宽快速提升,催化800G模块需求来源:Nvidia行效率的影响越大。因此AI芯片的互联带宽都需要非常巨大,如H100互联达到了900GB(1B=8bps)H群为例,单节点服务器侧(8卡)接入带宽为3.2T,交换机侧采用32*800G的交换机。图:NVLink本身单通道速率在升级,同时连接数也在升级图:DGXH100集群采用4*800G接入(Infiniband组网,1016卡):NvidiaH100referencearchitecture5800G800G400G800G800G200G400G100G400G2800G800G400G800G800G200G400G100G400G25GAI算迅猛发展,数据中心服务器接入侧速率快速提升。G46图:数据中心架构图(800G需求快速提升)46脊交换机400400G20200G100100G20200G机顶交换机/服务器网卡速率100100G来源:国泰君安证券研究A100/H100来源:国泰君安证券研究3.1800G主线:从芯片接入-服务器外-交换机层级3.1•最通用的测算方法就是芯片的接入流量->服务器内流量->服务器外流量->不同层级交换机流量,最后换算成端口数,再考虑是否采用光模块还是铜缆等形态。•以GH200测算为例:端口数来自L1层和L2层,共(2*115200GB+115200GB)*8(B/b)/800Gbps=3456个端口,再考虑L1接收流量端口距离较近,可以舍去,则最终为2304个端口,对应256个GPU芯片。核心前提:流量数据来源:GH200参考,国泰君安证券研究TreeNvlinkL96个Nvlink交换机,满足1:1无阻塞网络,接收南向流量,与自身发往L2层的流量是1:1,合计流量为2*115200GB流量。73.116KGPU训练集群设计H100A100核心参数POD数3.116KGPU训练集群设计H100A100核心参数POD数量88单个POD节点数88单个节点所需AI服务器个数22AI服务器个数20482048单个服务器GPU数88GPU个数16384163841个服务器对应网卡端口4*(800G端口)8*(200G端口)服务器服务器端口需求819216384接入层TOR下行端口数819216384TOR上行端口数819216384汇聚层Leaf下行端口数819216384Leaf上行端口数819216384核心层Spine下行端口数819216384三层架构汇总4915298304结果1:3.0(800G)1:6(200G)8•vidiaI00G端口数。•H0和A100网卡组网下光模块数量比例测算表:HH0和A100网卡组网下光模块数量比例测算GH200H100NvlinkGPU数量256256单个GPU互联流量450GB450GB板卡内:板块外收敛比L1层流量(南向)115200GB57600GBL1层流量(北向)115200GB57600GBL2层流量115200GB57600GB端口数34561728GPU:800G端口1:13.51:6.75GPU:800G光模块1:4.5数据来源:国泰君安证券研究3.1跟踪预期:Nvidia和Marvell指引乐观3.180.060.040.020.00.071.9260.51FY23Q1FY23Q2FY23Q3FY23Q4FY24Q1FY24Q29.0.07.06.05.04.03.02.00.020222023E22023EMarvellAI收入(亿美元)93.13.1该指标下降可以因为:)自然的技术代际升级:光芯片和电芯片成本、功耗并不因速率提升而线性提升;)里面器件和材料的变化;)封装形态的变化;图:器件层面主要通过改进材料可以下降单位速率的功耗图:器件层面主要通过改进材料可以下降单位速率的功耗数据来源:Innovium,国泰君安证券研究3.13.1•硅光技术是利用现有集成电路CMOS工艺在硅基材料上进行光电子器件的开发和集成。分立器件方案不同,硅光技术的集成度更高,封装形态也更加简化。图:传统光模块方案(左)vs硅光光模块(中)及硅光芯片(右)表:我们预计硅光技术在800G模块中渗透将明显上升电口速率光口速率4通道8通道112Gserdes400G非硅光G硅光or硅光1.6TOSFP-XD硅光G硅光or硅光3.2TCPO硅光224GSerdesG硅光or硅光.6T非硅光or硅光3.2TCPO硅光数据来源:ICCSZ,国泰君安证券研究3.1•硅光芯片晶圆利用率高,可以复用CMOS集成电路较为成熟的产业链,上量后边际成本低。•硅光的应用取决于客户接受度,目前全球看Intel的硅光产品接受度较高。表:硅光在集成度、产业链成熟度、良率、成本等都具有优势类类别硅光传统lnP晶圆尺寸8-12’2-3’工艺精度65nm-250nm0.3-0.5um集成度耦合器、波导、调制器、和波器、探测器、分束器、难实现高密度集成工厂维护代工生产产业链成熟相对不成熟芯片良率>80%<40%成本量大可以很低受限于良率和固定开支表:硅/SOI衬底价格便宜且晶圆尺寸更大lnPGaAsSOISi衬底价格($/cm2)4.551.650.2功能晶圆价格 ($/cm2)33.9527.160.2最大尺寸(mm)1502004504503.13.1•LPO:线性驱动可插拔模块(LinearPluggableOptics)省略DSP/CDR等部件,大幅降低成本和功耗。800GDSP成本实现下降。•功耗下降:省略的DSP芯片功耗占光模块超过一半。图:传统的光模块使用CDR/DSP(上半部分),LPO模块省略了CDR/DSP(下半部分)数据来源:索尔思,国泰君安证券研究DSP功耗占8W的400GDR4/FR4接近60%其他,1%其他,1%MCU,1%激光器,DSP,3.13.1•本质上是一种牺牲性能来降功耗的方案,目前只能用在SR(短距离领域)。A线性驱动减少光学部分的DSP功能线性驱动可插拔模块接近当前DEMO的CPO方案单位带宽功耗3.13.1•薄膜铌酸锂是一种高带宽的材料,可以支持800G\1.6T等更高速率模块;•硅光的带宽到达单通道200G/lane难度大,传统方案带宽到单通道200G难度也接近极限(EML),TFLN的上限可以更高。薄膜铌酸锂功耗可以比硅光更低图:铌酸锂调制性能好,薄膜化后尺寸与硅和LnP无异材料类型长度/mm芯片损耗/3dB带宽/GHz半波电压/V直流消光比(dB)SiPh硅光4504磷化铟5653传统LN1353-5薄膜LN2100/80/45薄膜LN29870数据来源:铌酸锂调制器发展进展3.13.1、联特、中际旭创等均在研发或发布TFLN模块,我们认为有可能在800G第二代\1.6T实现应用。•当前TFLN芯片供应商主要有铌奥光电、光库科技、宁波元芯、富士通等。图:薄膜铌酸锂可以用在800G模块的发端光学元件573.1光学元件573.1光芯片全球市场规模在80-90亿元,根据ICC预测,当前高速芯片国产化率低于10%。模块层面ChipOn模块层面光芯片层面光收发组件数据来源:联特科技招股书,优迅科技招股书3.13.1GEMLGPAM•OFC2022、OFC2023Lumentum、IIVI、索尔思等陆续推出200GEML产品。图:Sumitomo100GEML图:200G/通道将成为下一个代际图:100G速率光芯片快速成长单位:亿元 图:100G速率光芯片快速成长单位:亿元 2022202320243.1GGEML芯片,芯片单价预计在10美金左右。G。806040200图:全球光通信DFB/EML光芯片市场快速提升单位:百万2022E20232022E2023E806040200数据中心市场光纤接入市场5G移动市场DWDM2.5G10G25G50G100GDWDM数据来源:国泰君安证券研究A1003.1A1003.1图:A100出货对50G光芯片的拉动事项en1Scen2Scen3备注AI服务器出货量(万台)-A100数量(1:8)一台AI服务器8张卡G端口数量(A100:200G端口数=1:6)层网络200G光模块数量换机链接采用光模块,服务器到交50G光芯片数量(1:4)CC假设全部用单模,不采用VCSEL50GDFB光芯片单价(元)50GDFB大致价钱50G光芯片市场规模(亿数据来源:国泰君安证券研究图:H100出货对100G光芯片的拉动事项Scen1Scen2Scen3备注AI服务器出货量(万台)-H100数量(1:8)一台AI服务器8张卡800G端口数量(H100:800G端口数=1:3)层800G光模块数量交换机与交换机链接采光模块,服务器到交换机采用SR多模光模块100G光芯片数量(1:8)GEML案;因100G光芯片单价(元)100G光芯片市场规模(亿元)来源:国泰君安证券研究3.1国内算网主线:预计年内400GOTN升级3.1•东数西算、算力光网的大规模投入建设,带动国内骨干网升级的需求局,环形和链型为能应对东西流量据中心多条链接局,环形和链型为能应对东西流量据中心多条链接地网以足DC间大带宽需求3.1数据来源:三大运营商讲话,国泰君安证券研究力节点直连,提供MESH组网多路径;减0ms级ps623.1骨干设备:骨干网400G新代际,主要设备商受益3.1要设备厂商均有试验项目,年内有望开启招采较为受益。OTN端口比例华为占比最高G代际OTN新建+扩容有超过累计100万端口合计华为烽火诺基亚3.1相干模块:价值量高,竞争壁垒好3.1•相干模块价值量高,而且由于需要与客户进行更多定制化,竞争格局较好。•我们预计单个相干模块价值量至少在万元以上,国内能批量出货的厂商较少。图:相干模块图样表:主流相干模块市场价格情况相干模块市场价格100GCFP/CFP228000200GCFP2DCO40000400GCFP2DCO60000800G6位数1.2T6位数数据来源:易飞扬通信数据来源:德科立官网3.1薄膜铌酸锂:高带宽CDM器件,有望应用在400G3.1端口•薄膜领域,当前海外富士通、国内光库科技等有相应产品,我们预计有望应用在400G骨干网端口中。•交付的形式大概率为调制器HB-CDM的格式,封装尺寸可以相对做的较小。图:富士通宣布商用的驱动器+铌酸锂调制器封装起来3cm来源:富士通官网,国泰君安证券研究核心的薄膜材料技术我国已经掌握,芯片技术已逐渐兴起铌酸锂薄膜材料薄膜铌酸锂调制器芯片薄膜LN器件制作学院派山东大学:胡卉团队济南晶正(胡团队)中山大学:余思远蔡鑫伦团队、武汉国家重点实验室等光库科技、铌奥光电、宁波元芯华中科技大学夏金松团队、山东大学晶体材料实验室光库科技、铌奥光电、宁波元芯等产业数据来源:国泰君安证券研究33.2串扰小、时延低、信号完整性高。快速度、更高密度和更小型化的连接器以及更高集成度的线束成为行业技术发展的趋势。表:连接器分类图:数据中心场景下的连接器应用连接器类别主要功能应用领域电连接器用于器件、组件、设备、系统之间的电信号连接,借助电信号和机械力量的作用使电路接通、断开,传输信号或电磁能量,包括大功率电能、数据信号在内的电信号等广泛应用于通信、航空航天、计算机、汽车,工业等领域微波射频连接器用于微波传输电路的连接,隶属于高频电连接器,因电气性能要求特殊,行业内企业会将微波射频连接器与电连接器进行区分主要应用于通信、军事等领域光连接器用于连接两根光纤或光缆形成连续光通路的可以重复使用的无源器件,广泛应用于光纤传输线路、光纤配线架和光纤测试仪器,仪表,光纤对于组件的对准精度要求广泛应用于传输干线、区域光通讯网、长途电信、光检测、等各类光传输网络系统中33.2•连接器顺应光模块迭代趋势实现用量增长。根据集成光纤数量的不同,常见的光模块连接器可分为LC接口和MPO/MTP接口,100G以下光模块多使用LC接口,100G以上光模块则需要光纤集成度更高的MPO/MTP接口(常用2~48芯)。随着光模块速率GGG/800G跃升,单个光模块的通道数量增加,所需使用的单个连接器的通道密度&分支端连接器数量也增加,即需要更多的MPO/MTP连接器。表:光模块技术演进图:常见400G光模块连接方案光模块封装类型通道数量单通道速率调制技术传输速率440G4Gbps4s200GQSFP-DD400G8ps400GQSFP-DD800G8800G33.2•高速背板连接器新技术,高壁垒筑就高附加值。高速背板连接器因其功能主要集中在高速信号的板间传输,且能够在有限的空间器的新技术方向。由于其在技术难度、信号传输速率和应用场景多方面优于I/O连接器,较高,价值量大幅提升。图:I/O连接器和背板连接器应用表:I/O连接器和高速背板连接器对比应用领域I/O连接器高速背板连接器技术难度①单片信号PIN数量较少(一般为4个)②信号PIN一般只包含信号层和包围信号层的两个绝缘层③差分对集中在同一个信号PIN上,间距相同易加工①信号PIN数量较多(一般为12个以上)②信号PIN额外包含一个屏蔽层以及屏蔽层和信号层之间的绝缘层;③差分对配置在不同信号PIN上,且交错分布,不易加工传输速率QSFP8:单个通道的传输28Gbps,共4个通道,总传输速Gbps市面主流方案6pair/4column:单个差分对Gbps共24个差分对,总传输速率为600Gbps应用场景安装在子板边缘,主要作用是和外部的其它设备互联,以便和外部系统进行数据/信号交换安装在背板上,主要作用是将背板和子板进行连接,实现背板和子板的数据/信号交换:鼎通科技招股书,国泰君安证券研究33.2。根据在数据中心中应用场景的不同,线缆产品可分为内部线缆/外部线DACAOC短距离服务器-交换机、交换机-交换机互联。由于内部线缆需配合服务器/交换机平台不断升级(Intel平台从支持PCIe4.0向5.0升级,传输速率和调制技术均升级),可实现单服务器价值量大幅提升。交换机与AI服务器需求和性能持续提升,高速线缆、组件、连接器迎来快速发展期。图:DAC/AOC应用场景图:主板上PCIE通道33.2•国内厂商凭借在消费电子领域的技术积累+国产替代节奏加速,有望打破行业格局。海外连接器市场发展较早且成熟,欧美、日系厂商依靠技术沉淀和规模优势长期占据全球大部分市场份额。我国连接器行业起步相对较晚,以消费电子领域为代表,产品以中低端为主,市场份额有限。随着数据中心需求爆发式增长以及国产替代稳步推进,国内连接器厂商有望实现产品技术升图:2020年全球连接器厂商市场份额泰科安费诺莫仕立讯精密安波福富士康日本矢崎JAEJ.S.T广濑电机其他表:国外厂商与国内厂商对比应用领域主要国外制造商主要国内制造商通信泰科、安费诺、莫仕、航空电子、灏讯、雷迪埃、罗森伯格瑞可达汽车泰科、安费诺、莫仕、矢崎、航空电子电器、徕木股份、瑞可达计算机等消费电子泰科、安费诺、莫仕、航空电子电连技术、立讯精密、得润电子、徕木股份工业和交通泰科、安费诺、莫仕、矢崎、航空电子、灏讯、罗森伯格中航光电、航天电器、永贵电器、四川华丰军事、航空航天泰科、安费诺、莫仕、航空电子中航光电、永贵电器、四川华丰33.2缆)、光连接(AOC和光模块)、射频通信(基站天线、基站滤波器、塔顶放大器、双工器、合路器、RRU、AAU、小基站)等现有产品基础上,增加了热管理(热管、VC、轴流风扇、冷板、液冷散热)和工业连接等产品,实现数据中心场景下解决方案的垂直整合。G复刻海外龙头发展路径,实现通信领域连接器覆盖。图:立讯精密数据中心场景解决方案图:电连技术ECT产品应用72/4.4.1多语言翻译和自然语言生成能力。PaLM2包含了4个不同参数的模型,包括壁虎(Gecko)、水獭(Otter)、野牛(Bison)和独角兽(Unicorn。其中,PaLM2最轻量版本Gecko小到可以在手机上运行。求基本满足目前应用需求场景,导致终端消费者换机动力不足。而AI大语言模型的小型化发展,将带来智能终端的再升级。在手输、执行、感知等硬件需求也将同步升级。图:谷歌发布可植入终端设备的小型化模型Gecko数据来源:谷歌734.14.1••SocSoc件产品,涵盖声音、影像、AI处理功能,为智能化场景提供完整系统、音频处理器、I/O子系统以及各类高速模拟接口等功能模块。SoC性能。随着Soc发展向多核整合、更低功耗、更小工艺节点迈进,逐步支持深度学习(DL)、神经网络(NN)加速、计算器视觉(CV)应用以及超高清画质显示,将广泛应用于智能家居、互动零售、企业、商业、工业物联网等场景。图:Soc赋能的终端AI应用 4.2MR:苹果VisionPro震撼发布,最具潜力的AI终端•VisionPro通过VST(videoseethrough)实现MR(数字与现实的混合)。VisionPro通过传感器实时感知现图:通过调节VisionPro的旋钮,用户可以获得不同的沉浸度体验图:完全沉浸时,EyeSight技术让走近的同伴出现在用户视野中数据来源:WWDC23数据来源:WWDC23 4.2MR:消除数字与现实的鸿沟,开启空间运算新时代•VisionPro对现实的运算,是真正意义上的数字与现实的融合,也是与AI的完美结合。AIVisionProMR间运算新时代。•VisionPro与AI结合生成Persona虚拟现实形象。VisionPro采用机器学习技术,通过前置传感器和神经网络生成用户专属形图:基于机器学习运算后创造的现实形象数据来源:WWDC237677/5.1新易盛:数通模块后起之秀,高端占比不断提升5.1信100G高端模块的厂商。此外,公司2019年推出业内低功耗10w以下400G产品,并在海-23年行业需求超预期。图:主要产品为各速率光模块数据来源:公司公告,国泰君安证券研究数据来源:公司公告,国泰君安证券研究 5.2天孚通信:拓品类和拓赛道,数通产线迎来旺季数据来源:公司公告,国泰君安证券研究•2018-2020年:收购AiDi、开拓有源BOX、FA、收购北极光电(滤波片、玻璃block加工、WDM器件)。图图:全球研发和产能布局图:全球客户链条5.35.3将强劲。公司最新发布的G5系列服务器产品,具备高密度算力、灵活扩展、异构算力、海量存储、稳定可靠等特性,采用最新的英特尔至强AI”量身定制算力底座,为AI产品应用提供更加强劲的算力支撑表:中兴通讯智算基础设施产品矩阵图:中兴通讯G表:中兴通讯智算基础设施产品矩阵产品分类产品简介全系列服务器支持产品分类产品简介全系列服务器支持GPU和液冷,可以以极致低耗构建大模型计算资源池,使数据推出更高性能的R6900G5GPU训练服务器。提供高带宽多元融合存储,以满足AI训练多态数据存储需求。提供分布式磁阵和对象和块等多元存储。此外,通过NEO智能云卡卸载高性能存储传输协议NVMe,实现了3MIOPS的存储性能。采用高速“无损”网络,实现了AI算力的“无损”。以DPU为中心,基于无损交换机的高性能RDMA网络,构建了超大规模算力集群。引入NEO智能云卡,服务器可实现单节点800Gbps转发性能、微秒级时延,从而突破节点间网络瓶颈,可以存储网络80数据来源:中兴通讯微信公众号,国泰君安证券研究5.45.4动下将同比增长。由于资本开支放缓带来的折旧压力减小,以及运维费用的管控,预计盈利的增长将高于服务收入的增展机会及占据较大市场份额。目前,已有一些商业案例落地,但数据相关业务仍处于发展初期;我们认为公司将从战略层面推动数据表:中国移动算网基础设施数据中心布局算力规模可用机架数35万架云专网覆盖城市数304个网络时延全国20ms省域地市省际骨干网带宽数据来源:产业通信网、国泰君安证券研究表:中国移动面向政务领域的行业大模型模型类型模型类型简介优势基于近年来积累的丰富数字政府建设经验所打造的面向政务领域的行业大模型。海算政务大模型,务服务系统将具备强大的政项理解能力、多维度的信关联能力、面向复杂事项和复杂流程的多元交互能力。九天·客服大模型既可根据用户提供的自然语言描述,解析用户问题并提供答案,又可以与人工客服协作,分析历史沟通内容的语义和上下文,总结和归纳对话的重点和关键信息,根据对话内容为人工客服坐席提示回复建议席—用户”的三方沟通场。升传统人工客服的工作效率。5.55.5在于公司自身的关键核心技术能力;预计公司将继续加强在云计算核心技术方面的能力,劲的市场需求、庞大的客户基础、云网融合优势、将持续高增。OPS催化剂:派息及派息率的上升;云业务的增长快于预期。表:中国电信“2+4+31+X+O”算力布局分分类具体内容2在内蒙古和贵州两个全国性云基地打造融合资源池4在京津冀、长三角、粤港澳、陕川渝4个大区建成大规模公有云31在31个省省会级和重点城市建设属地化专属云X在X节点打造差异化边缘云O布局“一带一路”沿线国家,将算力体系延展至海外表:中国电信新一代智算引擎分类具体内容核心算法全面布局图像、语音、语义和AR/VR等领域基础算法和前沿探索,AI算法仓已突破5500+,发布星河通用视觉大模型2.0,从垂直领域智能迈向跨行业通用智能。高效算力依托天翼云进行人工智能4级算力的平台建设:在全国6个大区建设核心的、大型的算力集群;在31个省节点和部分重点城市节点,进行推理服务器和少部分训练服务器的部署数据治理统一平台能产品和能力平台星河AI赋能平台5.65.6GG的每股盈利会保持双位数的增长。由于政务云的强劲需求、运营商在数据安全和云网融合方面的优势、以及对公司对云资源储备的大力投资,IoT中国联通布局全面承接国家“东数西算”工程的“5+4+31+X”新型数据中心体系,建成数据中心880个,机架规模超过40万架,推动联通元。表:中国联通“5+4+31+X”数据中心布局分类分类具体内容5加快京津冀、长三角、粤港澳大湾区、成渝区域4大国家东数枢纽节点和鲁豫陕通信云大区中心枢纽节点建设4建设蒙贵甘宁4大国家西算枢纽节点31按需建设“31”省新型数据中心X表:中国联通AI智算中心核心优势分类具体内容自主创新的基础软硬件基于昇腾硬件、欧拉开源操作系统、昇思MindSpore全场景AI框架,CANN异构计算架构等全栈自主创新的基础软硬件支撑原生创新。极简易用的训推一体平台提供从训练到推理的一站式AI开发平台,通过昇思AI框架和全流程开发工具包,加速行业算法和应用开发,快速实现AI使能业务能力。全场景的端边云协同能力硬件层面均采用统一的达芬奇架构,软件层面支持主流操作系统、多种AI框架,不断丰富的生态体系现产学研用深度融合,构筑成熟AI生态体系。5.7光迅科技:国内芯片到模块、子系统集大成者5.7•光迅科技(002281.SZ)是全球领先的光通信器件及系统解决方案供应商,也是我国光电产业稀缺的产品能力覆盖芯片、器件、模块、子系。•超预期的点:国内数通高景气,高速芯片研发成功,新募投项目持续推进,激光雷达应用(光源)。图:主要产品为多场景光模块、传输器件、光芯片等数据来源:公司公告,国泰君安证券研究5.8光库科技:匠心享誉中国,期待薄膜数通领域应用•公司能力覆盖光纤激光器各类器件设计生产能力,开发出光纤光栅、隔离器等明星产品;•2020年起,公司募投定增薄膜铌酸锂产线,达产后芯片有望广泛应用于高速率数据中心光模块、电信传输骨干网等领域;•超预期的点:薄膜铌酸锂送样顺利、激光雷达业务推进超预期。光器和光通信领域数据来源:博创科技、公司公告、国泰君安证券研究图:OFC2022模块厂商推出基于薄膜铌酸锂的800G光模块来源:新易盛官网,国泰君安证券研究5.95.9IDC、南昌拥有12个自建自营的数据中心,可用机柜约为22,000个,同时公司继续抓紧海外市场资源布局,奥飞国际网络以香港为核心,通过搭建海缆资源网络,互联了公司在东南亚、欧洲和美洲节点。•AI浪潮下获得百度订单,出海布局沙特数据中心。2022年公司部分大型互联网公司客户的投资进度和投资力度受到了影响,期间公司加大市场拓展力度,拓展新客户群体,持续获得了百度等客户的意向订单,同时启动了在沙特与各方合作投资建设数据中心的计划。图:公司从华南起家,已经形成核心区域布局图:奥飞国际主要POP节点遍布亚洲、美洲等地区立讯精密(002475.SZ)手机/手表业务迎来放量期。手机领域,公司凭借自动化程度更高的组装产线以及强大的供应链管理能力,手机整机组装份额和盈利SiP额持续提升,供应利能力遥遥领先。未来健康功能完善后有望进一步爆发,极具业绩弹性。在结构件、连接器、光学、声学、SiP/AiP、射频、功能模组、整机组装中构筑了强大的垂直一体化能力;同时供应链管控、精益管理、成本管控能力将助

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论