国内AI行业蓄势待发国产算力迈入自强新纪元_第1页
国内AI行业蓄势待发国产算力迈入自强新纪元_第2页
国内AI行业蓄势待发国产算力迈入自强新纪元_第3页
国内AI行业蓄势待发国产算力迈入自强新纪元_第4页
国内AI行业蓄势待发国产算力迈入自强新纪元_第5页
已阅读5页,还剩30页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

目录一、内AI产业望跨越发展 1外AI产业勃展 1内模基实能力界破 2家力动AI建与应落地 3二、产力础施来发机会 4AI发需强算基础施撑 4运续级国化大所趋 7前产片能已近A100,优于H20 9三、产力业环梳理 9务:AI高增产算芯发或来局生变 9换:太高产品步熟高产预计现速长 13模:计内2024年400G光块求幅增长 16冷产趋明,2024进液规署阶段 18接器线:AI带连接系向112G/224G等升级 21PCB:AI拉动速PCB级利头份盈利升 25IDC建:注算心建和量造会 28四、资议 30五、险示 30图目录图1:AI应下量收高速长 1图2:外厂资开情况百美) 2图3:SuperCLUE中通大模基测(2023.12) 3图4:分型SuperCLUE文用模基评对比 3图5:语模所用数据和数模现数级增长 5图6:2020-2027国和智算规(EFLOPS) 5图7:内厂资开情况百元) 7图8:伟达AI计能过去8年升10000倍 7图9:球务和AI服务器模测亿元) 10图10:中国AI服务市市场模测百美) 10图11:中服器市额情(2022年,%) 10图12:中国AI服务市份额况(2022,%) 10图13:光信业光电口级代意图 13图14:全交机市模(美) 13图15:交机同SerDes速率况 13图16:全球top500厂商IB以网署额(%) 14图17:传传模和RDMA传模对比 15图18:GSE术层构 15图19:CPO显降本和耗 15图20:博通TH5-Baily51.2TCPO15图21:2022Q4-2023Q4球交机商入况百万元) 16图22:2023Q1中交市场额(%) 16图23:中以网芯应用景场模况亿元) 16图24:中以网芯端口率场模况亿元) 16图25:光块率已级到800G 17图26:OSFPMSA和4x400GMSA的1.6T主方案 17图27:Marvell用光中的DSP品级图 17图28:冷式冷方案 18图29:两浸式液案 18图30:冷式冷整路图 19图31:维谛Vertiv风液合制方(板冷风冷) 19图32:服器分连示意图 22图33:华为NetEngine8000X8由正架构 23图34:英达GB200NVL72务与RACK连接式 23图35:高速接光模互联 23图36:PCIe技发展况 26图37:Intel不同务器CPU台术能表 26图38:高信的传率提情下耗升 26图39:PCB业链 27图40:2021年球PCB商份额 27图41:2021年内PCB商份额 27图42:2021年球刚铜板铜厂份额 28图43:2021年球特性覆板商额 28图44:数中建设链 29图45:2023-2025全据中存改规(元) 30图46:2023-2025运数据心造景出比(%) 30表目录表1:内分模厂产品况 2表2:动工能展分相政策 4表3:大营公在/已投智中汇总 6表4:伟部芯性对比 8表5:内要AI训练片与伟主训芯对比 9表6:国信2023-2024年AI服器采标况 11表7:国动2023至2024年型算心验网采项(分标情) 11表8:国动2024年PC务产集采购 12表9:PCIe迭代况 18表10:国数中心市场模算 20表11:国部上市液冷局 20表12:DAC、AOCACC、AEC24表13:国部连接市公相布情况 24表14:国部分PCB、覆板商AI相关情况 28一、国内AI产业有望迎来跨越式发展AI产业蓬勃发展OpenAI20233202312GeminiGemini1.5proGemmaAI应用蓬勃发展,云大厂比copilot、bingAIworkspeceGemini等外,B端垂直企业服务、C端应用SensorTower数据显示,2023年,AI60%70%,超过2117(2023H13亿次40%AI推理端。openaisoraGenieAI能力边界大幅跃升,AI向基础世界模型、AGI领域迈进。图1:AI应用下载量与收入高速增长数据来源:SensorTower,AI发展的基础设施角度,不管是从英伟达、超微电脑、台积电、AMDcapexAI产业的持续提速。FY24Q3、FY24Q4AI带动数据中心业务超预期带动,英伟达FY25Q1240219FY24Q2营收超预期,FY24Q33741AI系统强劲需AICAGR50%AI2027营收占比达到高双位数(highteen),此前预期为低双位数(lowteen)。AMD202312月上调加速器规模预测,预计到2027年,人工智能加速器的整体市场规模将达4000亿美元,CAGR达到70%,此前2023年8月AMD预计2027年人工加速器行业规模为1500亿美元。海外云厂商对AI投入展望持续乐观。2024年资本支出将明显增长。meta2024年资本开支300亿美元-37020同的交付转移到下一季度,预计下一季度资本支出将环比大幅增加。亚马逊预计2024年资本支出将同比增加。图2:海外云厂商资本开支情况(百万美元)50000400003000020000100000

亚马逊 微软 谷歌 脸书 亚马逊YoY 微软YoY 谷歌YoY 脸书YoY250%200%150%100%50%0%-50%数据来源:Bloomberg,亚马逊官网,微软官网,谷歌官网,国内大模型基本实现能力边界突破国内厂商也加快研发节奏,纷纷发布大模型产品,并不断持续迭代更新。20233月-6月间,包括百度、2023年91020231011月实现了能力边界ChatGPT,并且后续在持续的进一步迭代升级。随着国内大模型能力的提升,AI2024年也将迎来加速落地。表1:国内部分大模型厂商产品情况厂商大模型发布时间百度文心一言文心一言4.020233月202310月月之暗面Kimichat2023年10月阿里巴巴通义千问通义千问2.020234月202310月讯飞星火V1.02023年5月讯飞星火V1.52023年6月科大讯飞讯飞星火V2.02023年8月讯飞星火V3.02023年10月讯飞星火V3.52024年1月baichuan-7B2023年6月百川智能baichuan-13B、baichuan-13B-chat2023年7月baichuan2-7B/13B、baichuan2-53B2023年9月ChatGLM-6B2023年3月清华智谱ChatGLM3-6B2023年10月GLM4、定制化大模型GLMs2024年1月资料来源:新浪,亿欧网,网易,时代财经,清华大学官网,搜狐,行业深度报告参考国内中文模型评测机构SuperCLUE发布中文大模型基准测评,对比来看,国内大模型厂商的能力在2023年5GPT3.5有约2053.58,GPT3.566.18。202311GPT3.5GPT4-Turbo4.0、72.88Moonshot59.39GPT3.589.79分GPT4SuperCLUE20242GPT4.0的得分104.087.75,GLM-486.772.185.7、Baichaun3总82.59、Moonshot(kimichat)82.37V3.581.01GPT4.0-Turbo92.71、GPT3.564.34。图3:SuperCLUE中文通用大模型基准测评(2023.12) 图4:部分模型SuperCLUE中文通用大模型基准测评对比openAI-GPT4 百度-文心一言清华&智谱AI-GLM 阿里巴巴-通义千问百川智能-Baichuan 月之暗面-kimichat科大讯飞-讯飞星火 字节跳动-云雀/豆包google-Gemini-pro Anthropic-Claude21009080706050403020100数据来源:SuperCLUE,智东西, 数据来源:SuperCLUE,Kimi200万字超长文本,用户数激增,国内模型的能力和应用的展望进一步乐观。20243月18Kimi200万字超长无损上下文(202310月刚发布时,Kimi可支持的无损上下文输入长度为20万字),在长文本处理能力上取得了突破性进展,并于即日起开启产品内测。20235030039121435万左右,321日,Kimi因访问量暴增而疑似宕机。AI建设与应用落地2024219行业深度报告和人才聚集,着力打造人工智能产业集群,发挥需求规模大、产业配套全、应用场景多的优势,带头抢抓人工智能赋能传统产业,加快构建数据驱动、人机协同、跨界融合、共创分享的智能经济形态。会议强调,中央企业要把发展人工智能放在全局工作中统筹谋划,深入推进产业焕新,加快布局和发展人工智能产业。要夯实发展基础底座,把主要资源集中投入到最需要、最有优势的领域,加快建设一批智能算力中心,进一步深化开放合作,更好发挥跨央企协同创新平台作用。AI+专项行动,强化需求牵引,加快重点行业赋能,构建一批10中央企业签订倡议书,表示将主动向社会开放人工智能应用场景。表2:推动人工智能发展部分相关政策时间政策/会议发布部门内容2022年7月《关于加快场景创新以人工智能高水平应科技部、教育部、工业和信息化部、交通运输部、农业农村部、用促进经济高质量发国家卫生健康委企业主导、创新引领、开放融合、协同治理的原则,围绕展的指导意见》高校等机构的场景创新能力,加快场景开放,扩大场景创新要素供给。2022年8月《科技部关于支持建设新一代人工智能示科技部范应用场景的通知》的标杆型人工智能应用场景。首批支持智慧农场、智能港口、智能矿山、智能工厂、智慧家居、智能教育、自动驾驶、智能诊疗、智慧法院、智能供应链共十个示范应用场景。2023年7月《生成式人工智能服务管理暂行办法》国家网信办、国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局管部门采取精细化措施进行监管,鼓励生成式人工智能创新发展和产业应用。2024年2月“AI赋能产业焕新”中央企业人工智能专国务院国资委题推进会需要、最有优势的领域,加快建设智能算力中心,促进跨央企协同创新,带头抢抓人工智能赋能传统产业,构建数资料来源:国务院,工信部,科技部,二、国产算力基础设施迎来发展机会2.1AI发展需要强大算力基础设施支撑大语言模型所使用的数据量和参数规模呈现“指数级”增长,带来智能算力需求爆炸式增长。OpenAI在2018年推出的GPT参数量为1.175GBGPT3参数量达175045T,行业深度报告训练阶段算力需求与模型参数数量、训练数据集规模等有关OpenAI发布的论文《ScalingLawsforNeuralLanguageModels=6175045TB3000tokens,GPT-33646PFLOPS-day算力除用于模型训练,还需处理通信、数据读写等任务,对算力会有更大消耗。面向推理侧算力需求,参考天OpenAIScalingLawsforNeuralLanguageModels1000token750=2×模型参数数量×tokenChatGPT510011ChatGPT20001000token10次,GPT-3模型每日对话产生推力810PFLOPS-day,同样考虑到有效算力比率,实际运行中需要更大算力支撑。图5:大语言模型所使用的数据量和参数规模呈现“指数级”增长数据来源:英伟达官网,根据中国信通院数据,2022年906EFLOPS550%。IDC数据显示,202254.5EFLOPS(FP64)259.9EFLOPS(FP16),2027117.3EFLOPS1117.4EFLOPS516.6%33.9%。图6:2020-2027中国通用和智能算力规模(EFLOPS)通用算力规模(基于FP64算),EFLOPS 智能算力规模(基于FP16算),EFLOPS15001117.4812.51117.4812.5414.1497.1616.6259.939.675.0155.247.754.5117.359.386.71.8101.2150002020 2021 2022 2023e 2024e 2025e 2026e 2027e数据来源:IDC,运营商加大智能算力基础设施投入。中国移动2024年计划总体资本开支1730亿元同比下降4%,用于算力行业深度报告47521%20249604%,用于产业数370/1802024650亿元AI服务器采购方面,202382023-2024AI4175台,中标总价超842023920232024(试验网(2454台(204套33(4-121-3采购失败)。2024320242503RoCE688表3:三大运营商公开在建/已投运智算中心汇总建设主体名称建设规模投运情况中国电信临港智算中心位于上海,是全国首个万卡规模国产液冷集群,首批1.5万卡能力,预计将于2024年上半年逐步完成建设,其中国产算力卡将达万张。正在建设中中国电信中国电信京津冀大数据智能算力中心中国电信安徽智算中心位于天津,一期项目于2021年投产,2024年全部建成后,能够提供约4.2万个机架,预计可带动大数据、人工智能等上下游产业链投资近500亿元。位于安徽省合肥市,总投资预计超过100亿元,可提供16000个中高密度机架,支持约30万台服务器运行,承载算力规模达到2.2EFLOPS。建设完善中已启用中国电信长三角国家枢纽嘉兴算力中心可提供约1.56万架机柜资源,建成后将成为“国家云”建设核心基地、长三角新型算力调度中心。正在建设中中国移动呼和浩特智算中心20236205.5EFLOPS,国产化率超80%,其中打造的B07机房楼建成后将成为全球运营商最大的单体智算中心,算力规模达5.5EFlops,使用万片级AI加速芯片。正在建设中部分已启用中国移动中国移动长三角(芜湖)算力中心项目总投资超20亿元,规划智算算力超2000PFLOPS,由新华三、六尺科技和安徽移动芜湖分公司联合建设,“东数西算”芜湖集群首个大规模智算中心。正在建设中重庆移动智算中心位于两江新区水土新城,新增2000余台高性能服务器。已揭牌中国移动智算中心(武汉)项目预计2024年建成投运,首期规划1000PFLOPS(A800、H800、昇腾910服务器),采用“风冷+液冷”散热模式。已完成规划中国联通(青岛)智算中心位于青岛市西海岸新区,一期工程已建成2栋IDC机房,全部建成后将拥有6栋IDC机房,可提供12000个机柜。已启用中国联通中国联通长三角(芜湖)智算中心603000P10000是中国联通在长三角地区等级最高、规模最大的智算中心。正在建设中中国联通广东Al智算中心位于广东省深圳市,由中国联通研究院、广东联通携手华为建设的全栈自主创新AI智算中心,超过2000台华为昇腾AI服务器。已投运资料来源:工联网iitime,03年全年腾讯资本开支为238.332.6%2023Q1、2023Q22023Q32023Q444.1139.3580.0575.24-36.7%+31.1%、+236.8%、+33.1%2023年前三季度单季资本开支同比均呈现下滑,2023Q12023Q2、2023Q3阿25.1360.0741.12-72.7%-46.0%-62.5%,2023Q4同比转为正增72.8625.8%。行业深度报告图7:国内云厂商资本开支情况(百万元)阿里巴巴 腾讯 阿里巴巴YoY 腾讯YoY30000350%25000300%250%20000200%15000150%100%1000050%50000%-50%0-100%数据来源:Bloomberg,阿里巴巴官网,腾讯官网,,20243GTCGB200Blackwell4(4NP(Die形成一个BlackellGPUBlackellGPUGraceCPUGB200superchipBlackwellGPU2080H100800GB200NVL7227901.8MoEGPT8000HopperGPU,15兆瓦功率,如今同样给90Blackwell2000GPU1/4的能源消耗。图8:英伟达AI计算能力过去8年提升10000倍数据来源:英伟达GTC,禁运持续升级,国产化大势所趋美国对中国先进芯片进口限制持续升级。20231020228月,美A100H100算力*位宽)≥4800且互联带宽≥600GB/sAI芯片出口,在制裁后,英伟达为中A800H800两款“阉割版”芯片,主要在互联速率和双精度计算性能上做了限制。202310算力位宽超过4800(2TPP1600且P(TP芯片面积超过5.92(3)2400≤TPP4801.6≤PD<.92的芯片;(4)1600≤TPP3.2≤PD<5.92的芯片。在此要求下,A100/A800、H100/H200/H800、L4、L40s均H20、L20、L2芯片。而近日美国政府再次升2024330日凌晨,美国商务部下属的工业与安BIS2022202310月制定的两次出口限制新规,全面限制英伟达、AMDAI芯片和半导体设备向中国销售,此次新规中,BIS删除和修订D:5国家组将采取“推定拒AI国内算力自立自强是必然趋势。此前国内对英伟达芯片依赖度较高,2022AI加速卡市场中,英85%10%、2%、1%、1%。IDC数据显示,202350万张。从技术角度看,GPU90%的市场份,AI510%H20等在内的海外芯片也预计H20NVLINK表4:英伟达部分芯片性能对比CoreH200SXMCoreH200SXM34TFLops67TFLops1979TFLops141GB4.8TB/s700WH100SXM34TFlops67TFlops1979TFlops80GB3.35TB/s700WH800SXM1TFlops67Tflops1979Tflops80GB3.35TB/s700WA10080GBSXM9.7TFlops19.5TFlops312TFlops80GB2039GB/s400WA80080GBSXM9.7TFlops19.5TFlops312TFlops80GB2039GB/s400WL40s-91.6TFlops362.05TFlops48GB864GB/s350WH201TFlops44Tflops148Tflops96GB4.0TB/s400WL20PCIe-59.8TFlops119.5TFlops48GB864GB/s275WL2PCIe-24.1Tflops96.5Tflops24GB300GB/sTBD

FP16Tensor

GPU内存 GPU内存带宽 TDP interconnect资料来源:英伟达官网,

PCIe5.0:128GB/sPCIe5.0:128GB/sPCIe5.0:128GB/sPCIe4.0:64GB/sPCIe4.0:64GB/sPCIe4.0:64GB/sPCIe5.0:128GB/sPCIe4.0:64GB/sPCIe4.0:64GB/sA100目前华为海思、寒武纪、平头哥、壁仞科技、百度昆仑芯、燧原科技、海光等国内GPU厂商均已推出用于训练、推理场景的算力芯片,并且持续迭代升级,性能在不断提升。而生态方面,国内GPU厂商也推出软件开发包,支持TensorFlow、Pytorch等主流框架,并且基于自身的软件建立了开发平台,吸引更多的开发者建立完善生态体系。H20FP16910算力为256TFLOPS,略低于A100的312TFLOPS,相较于H100的1513TFLOPS有较大差距,但强于H20的148TFLOPS。此外,平头哥含光800INT8BR100FP32精度均超过A100。在单颗芯片表5:国内主要AI训练芯片与英伟达主流训练芯片对比厂商加速卡FP32(TFLOPS)FP16(TFLOPS)INT8(TOPS)功耗(W)显存显存带宽A100PCIe19.531262440080GB1935GB/s英伟达A800PCIeH100PCIe19.5513121513624302640070080GB80GB1935GB/s3.35TB/sH204414829640096GB4TB/s华为海思昇腾910-256512350--壁仞科技BR1002561024204855064GB1.64TB/s平头哥含光800--825276--寒武纪MLU370-X8249625625048GB614.4GB/s摩尔线程MTTS300015.2--25032GB448GB/s燧原云燧T2032--30032GB1.6TB/s资料来源:英伟达官网,壁仞科技官网,平头哥官网,摩尔线程官网,燧原官网,昇腾官网,人民网,三、国产算力产业链环节梳理服务器:AI高增,国产算力芯片发展或带来格局生变年服务器市场整体出货量不及预期。IDC数据显示,2023315.6亿美元,同0.5%306.622.8%20231284.71亿4.26%11.8%、10.2%、9.7%8.9%2027年,市场规1891.39Trendforce20239.7%AI需求暴涨、全球整机支出向AI倾斜影响,通用服务器市场被进一步压缩。IDC数据,2023年上半年CPUCPU13.4%AIIDC预计,全球人工智能硬件市场(服务器)20221952026347亿美元,年复合17.3%。IDC预计,20239182.5%,202713421.8%。图9:全球服务器和AI服务器规模预测(亿美元) 图10:中国AI服务器市场市场规模预测(百万美元)全球服务器市场规模,亿美元全球人工智能硬件市场(服务器)全球服务器市场规模同比增速2000150020.1%15001232

14361285

1583

1737

25%20%15%10000

1954.3%

10.2%

347

10%5%0%2022 2023e 2024e 2025e 2026e数据来源:IDC, 数据来源:IDC,AI服务器占比提升和国产化率提升,国内服务器厂商竞争格局或存变数。此前服务器竞争格局中,浪潮、新华三等厂商份额较高。202228%、17%、10%、6%、5%。2022AI服务器市场份额来看,浪潮、新华三、宁畅、安擎、坤47%、11%、9%、7%、6%、6%AI芯片占比的提升,AI服务器供GPUGPU新产品的推出以GPU生态也有望更加丰富,进一步可能存在新的变化。CPU解决方案目前有海光、兆芯、澜起,并以海光为主;ARM2021-2022PC服务器集采599825890141.43%2024PCX86服务器的1.71:1,ARMX86。图11:中国服务器市场份额情况(2022年,%) 图12:中国AI服务器市场份额情况(2022年,%)数据来源:IDC, 数据来源:IDC,行业深度报告表6:中国电信2023-2024年AI服务器集采中标情况标包排名企业名称报价(含税),元训练型1超聚变数字技术有限公司5,342,130,820.87风冷服务器(I系列)2浪潮电子信息产业股份有限公司5,376,127.950.023紫光华山科技有限公司5,365,504,587.244宁畅信息产业(北京)有限公司5,384,213,138.445中兴通讯股份有限公司5,285,535,434.186烽火通信科技股份有限公司5,040,734,142.757联想(北京)信息技术有限公司5,208,044,679.61训练型1超聚变数字技术有限公司341,995,767.86液冷服务器(I系列)2浪潮电子信息产业股份有限公司344,327,286.693紫光华山科技有限公司342,200,460.584宁畅信息产业(北京)有限公司342,729,177.41训练型1四川华鲲振宇智能科技有限责任公司1,304,993,691.62风冷服务器(G系列)2河南昆仑技术有限公司1,301,333,577.553烽火通信科技股份有限公司1,301,966,880.404宝德计算机系统股份有限公司1,308,854,254.135新华三信息技术有限公司1,301,879,376.596湖南湘江鲲鹏信息科技有限责任公司1,300,296,513.277北京神州数码云科信息技术有限公司1,301,661,686.618黄河科技集团信息产业发展有限公司1,307,306,069.38训练型1四川华鲲振宇智能科技有限责任公司1,477,099,321.33液冷服务器(G系列)2河南昆仑技术有限公司1,475,413,614.453烽火通信科技股份有限公司1,475,489,300.724新华三信息技术有限公司1,475,901,834.345宝德计算机系统股份有限公司1,484,725,722.976湖南湘江鲲鹏信息科技有限责任公司1,474,476,346.127北京神州数码云科信息技术有限公司1.476,210,004.558黄河科技集团信息产业发展有限公司1,484,431,732.00资料来源:中国电信,c114通信网,表7:中国移动2023年至2024年新型智算中心(试验网)采购项目(部分招标情况)标 中标\产品包 位序

中标候选人

报价(不含份额税),元4 AI训练服务器(PCle风冷),52台

1 新华三术有公司 14,723,820 70%2烽火通信科技股份有限公司14,389,62630%5通用AI推理服务器(PCle风冷),16台1中兴通讯股份有限公司3,629,945100%6特定场景AI推理服务器(PCle风冷),64台12新华三技术有限公司河南昆仑技术有限公司10,661,09310,149,56670%30%行业深度报告数据中心交换机(接入交换机),10套7 1数据中心交换机(出口交换机),2套华为技术有限公司,3,862,671100%数据中交换机(口交机),64套 1锐捷网络股份有限公司67,483,07725%8数据中心交换机(接入交换机),128套2华为技术有限公司85,235,40075%-96套9-23套12华为技术有限公司曙光信息产业股份有限公司70%30%10 608许可1趋动科技(上海)有限公司25,182,163100%11 AI训练服务器(扣卡液冷),356台特定场景AI训练服务器(扣卡风冷),106台12特定场景AI训练服务器(扣卡液冷),1144台

1 河南昆技术限公司 490,956,052 72%2 四川华振宇能科有限任司490,491,527 1 河南昆技术限公司2,473,721,502 2 四川华振宇能科有限任司2,473,721,365 3 烽火通科技份有公司2,473,729,237 4 神州数(中)有公司2,473,722,754 8%资料来源:中国移动采购与招标网,产品中标位序中标候选人报价(不含税),元标包6公有云服务器PC4产品中标位序中标候选人报价(不含税),元标包6公有云服务器PC4,2000台第一第二中兴通讯股份有限公司浪潮电子信息产业股份有限公司77,007,440.0077,179,600.00标包9PC6,5000台第一浪潮电子信息产业股份有限公司351,221,050.00第一四川虹信软件股份有限公司724,862,246.93第二河南昆仑技术有限公司724,868,185.66标包11C12-Z-ARM,11194台第三第四黄河科技集团信息产业发展有限公司武汉长江计算科技有限公司724,863,075.59725,375,739.91第五神州数码(中国)有限公司724,863,351.81C1-Z-x86,762台第一中兴通讯股份有限公司343,638,579.78C12-Z-x86,6584台第二中移(杭州)信息技术有限公司353,355,888.96第一河南昆仑技术有限公司993,236,142.46C3-Z,10166台第二黄河科技集团信息产业发展有限公司993,242,410.82C4-Z,193台第三四川虹信软件股份有限公司993,236,527.21第四武汉长江计算科技有限公司993,239,765.84第一河南昆仑技术有限公司2,897,396,503.49第二四川虹信软件股份有限公司2,938,659,339.69C1-Z-ARM,2617台1213标包14

B1-Z-ARM,14384台B2-Z-ARM,23520台B3-Z-ARM,4039台

第三 武汉长计算技有公司 2,938,665,727.88第四 宝德计机系股份限公司 2,903,287,752.18第五 同方股有限司 2,900,340,878.46第六 湖南湘鲲鹏息科有限任司 2,938,665,035.47第一 河南昆技术限公司 398,087,460.82标包16 S4-Z-ARM,4918台

第二 四川虹软件份有公司 405,397,182.58行业深度报告标包20

S5-Z,7171台S2-Z,3170台S3-Z,5066台S1-Z,6465台资料来源:中国移动采购与招标网,交换机:以太网高速产品逐步成熟,高端产品预计实现快速增长AI部署需要更大的网络容量,数据中心交换带宽当前处于每两年翻一番的速度快速增长。20228月,Tomahawk551.2T,serdes100Gb/sec800G,可以800G、1.6T102.4T1.6T、3.2T网络奠定基础。图13:光通信行业光口和电口升级迭代示意图数据来源:Naddod,AIIDC44220.1%13.6%41.5%,2023年200/400GbE68.9%2023高速交换机20242024800Gbps2027400Gbps/800Gbps40%AI算力芯片供应短缺等影响,IDC数据,20234%(202250亿美元),但20239.1%,随着国内算力建设,预计国内高端交换机渗透提升将加速,拉动整体需求。图14:全球交换机市场规模(亿美元) 图15:交换机不同SerDes速率情况全球以太网交换机市场规模,亿美元 同比增速44220%365 44220%365 21%2893045%0%400 20%300 15%200 10%100 5%0 0%2020 2021 2022 2023数据来源:IDC, 数据来源:fibermall,Infiniband当前份额提升。AI高性能计算场景对于网络性能要求进一步提升。InfiniBand最重要的一个特RDMA协议(远程直接内存访问),TCP/IPRDMA可以InfiniBand技术以端到端流量控制为网络数据包收发的基础,能够确保无拥塞发出报文,从而大幅降低规避丢包所导致的InfiniBandSHARP(可扩展分层聚合和归约协议InfiniBand作为一个用于高性能计算的网络通信标准,其优势在于高吞吐和低延迟,可以用于计算机和计算机、计算机和400Gb/sIBTAXDR800Gb/s1600Gb/s2GDR产品,1600Gb/sIBNvidia(Mellanox公司Intel(Qlogic公司InfinibandAI市场处于领先地位。图16:全球top500厂商IB和以太网部署份额情况(%)60.0%50.0%40.0%30.0%20.0%10.0%2014年6月2014年11月2015年6月2015年11月2016年6月2016年2014年6月2014年11月2015年6月2015年11月2016年6月2016年11月2017年6月2017年11月2018年6月2018年11月2019年6月2019年11月2020年6月2020年11月2021年6月2021年11月2022年6月2022年11月2023年6月2023年11月Infiniband GigabitEthernet数据来源:top500,RDMAoverConvergedEthernet)的出现和成熟,RDMA在基于以太网的数据中心得到规模应用。IBTA2010年发布了RoCE2014RoCEv2协议技术标准,经过多年的发展,RoCE已经具备路由能力,且在性能表现提升明显。202211月,BroadcomArista(RoCE)的远程直接内存访问(RDMA)优化的开放式端到端网络解决方案。20235NVIDIASpectrum-X,交换带51.2TRoCENVIDIARDMARDMARDMA通过硬件实现高带宽低时CPUAIUEC、GSE,进一步提升以太网传输性能。20237月,硬件设备厂商博通、AMD、思科、英特尔、Arista、Eviden、HPMetaUEC(UltraEthernetConsortium,超以太网联盟),在物理层、链路层、传输层和软件方面致力于开发开放的“UltraEthernet”解决方案,打造高RDMA更灵活。202383020239行业深度报告图17:传统传输模式和RDMA传输模式对比 图18:GSE技术分层架构数据来源:搜狐, 数据来源:《全调度以太网技术架构白皮书》,CPO、硅光等技术将在高端交换机中使用。共封装光学(CPO)是业界公认的未来更高速率光通信的主流640G51.2T,Serdes速率不22CPOSerdes的功耗,因此51.2TCPOMetaCPO20236月首发51.2T800GCPOCPO硅光技术、液冷散热设计、智能无损等技术,满足智算网络RoCE51.2TNPO25.6TNPO交换机等产品。图19:CPO将显著降低成本和功耗 图20:博通TH5-Baily51.2TCPO方案数据来源:博通,forbes, 数据来源:博通,36kr,半导体行业观察,AIGPU相关订单预计将实现高速增长。交换机具备技术AIArista、HPEIDC数据,2023(34.5%)(30.9%)51.2T2022351.2TNPO2023651.2T800GCPO(H3CS9827系列)20231151.2T(SC8670EL-128QH)。202351.2T白盒交换TCS9500B5020行业深度报告图21:2022Q4-2023Q4全球交换机厂商收入情况(百万美元)图22:2023Q1中国交换机市场份额(%)数据来源:IDC, 数据来源:IDC,云头条,CPUPHYPCB/202097.8%61.7%、20.0%16.1%的市占率排名前三位,盛1.6%2024Arctic25.6Tbps800G,面向超大规模数据中心,交换容量基本达到头部竞争对手水平。图23:中国以太网芯片各应用场景市场规模情况(亿元) 图24:中国以太网芯片各端口速率市场规模情况(亿元)数据来源:灼识咨询,盛科通信, 数据来源:灼识咨询,盛科通信,2024400G等光模块需求大幅增长2022800G速率升级,2024800G光模块的出货量预计大幅增长。800GSerdes的100G50GBaud(EML的速率),PAM4100G速率。800G光模块2022年底开始小批量出货,2023(含自用与外售2024800G预计有望大幅增长。行业深度报告图25:光模块速率已经升级到800G数据来源:博通官网,1.6T20242025AIbit1.6T100Gbps100G升级到200G。得益于网络较高的性价比,1.6T光模块有望加速应用,有望在2024年下半年小批量出货并有望在2025年大幅增长,从下游客户来看,英伟达、谷歌和亚马逊可能会是1.6T光模块的主要需求方。图26:OSFPMSA和4x400GMSA的1.6T主要方案 图27:Marvell用于光模块中的DSP产品升级示意图数据来源:OSFPMSA, 数据来源:Marvell,nextplatform,400GCSP800G产A100GPU200GGPU800GA100GPUMellanoxHDR200Gb/sInfinibandH100GPUMellanoxNDR400Gb/sInfinibandH100SuperPOD800G1800G2400G8SerDes8100G通道一一对应。因此,在这GPUPCIe,PCIe连接Atlas300TA2PCIePCIex16Gen5.01*200GEQSFP-DD1400G2200G光模块的方PCIex16Gen5.0400G光模块实现无阻塞。AI服务器发货增长,预计也将带动相关光模块环节放量。行业深度报告表9:PCIe迭代情况PCIExpress推出Line编码原始传输率有效带宽版本时间×1 ×2×4×8×161.020038b/10b2.5GT/s250MB/s 0.50GB/s1.0GB/s2.0GB/s4.0GB/s2.020078b/10b5.0GT/s500MB/s 1.0GB/s2.0GB/s4.0GB/s8.0GB/s3.02010128b/130b8.0GT/s984.6MB/s 1.97GB/S3.94GB/s7.88GB/S15.75GB/s4.02017128b/130b16.0GT/s1969MB/s 3.94GB/s7.88GB/s15.75GB/s31.51GB/s5.02019NRZ128b/130b32.0GT/s3938MB/s 7.88GB/S15.75GB/31.51GB/s63.02GB/PAM4&FEC6.0 2021 64.0GT/S~7800MB/s ~15.7GB/s~31.4GB/s~62GB/s~124GB/s128b/130b资料来源:PCI-SIG,界面新闻,液冷:产业趋势明确,2024年进入液冷规模部署阶段GPUAI2000W。液冷预计将成blackwellcomputenodeliquid-cooledMGXdesign图28:冷板式液冷方案 图29:两相浸没式液冷方案数据来源:《绿色高能效数据中心散热冷却技术研究现状及发展趋势》,

数据来源:《绿色高能效数据中心散热冷却技术研究现状及发展趋势》,CDU、manifold等,以及对于散热进行补充的风冷部分。服务器内部的环节,主要由服务器厂商进行采购,部分芯片厂商在供应链环节具备一定话语权。CDU、Manifold相关的冷量分配系统,主要由互联网厂商、运营商、数据中心厂商或集成商、模块化设备提供商等下游客户进行采购。不同厂商参与的环节不同,整体的业务可达空间也存在差异。行业深度报告图30:冷板式液冷整体链路图数据来源:《绿色数据中心创新实践--冷板液冷系统设计参考》,近期海外算力相关散热供应链公司也积极布局液冷。超微电脑表示,至2024年6月,超威电脑的液冷机架1500500030%2024450%50%AVCAI2024年下半年起小量出货,2025202440倍以上。CoolerMaster203年1月发布了一体液冷主机oolingX和迷你液冷主机SeaerX2024年初公布了公司的战略蓝图,DIY服务的耦合视角下推进技术生态系统布局。图31:维谛Vertiv风液混合制冷方案(冷板液冷和风冷)数据来源:Vertiv官网,行业深度报告国内运营商快速推进,新增AI服务器招标中液冷渗透比例已经达到大份额。20236月,三大运营商联202310%规模试20238AI(2023-2024年G系列训练型服务器中,风冷、液冷的比例已经相当。2023920232024年新型智算中心(试验网)集采(4-121-3采购失败)AI1658台(其中150090%)AI80台(6480%)。2002024年将进入规模部署阶PUE监管要求的实质性落地,AI服务器出货量、KW200的发展,带动服务器的量有望进一步明显提升,行业规模有望进一步打开。表10:国内数据中心液冷市场规模匡算AI服务器通用服务器20242025中期中期GPU/GPU量,万片100200400800功耗,kw0.40.50.80.5液冷总体单价,元/kw10000800040005000液冷渗透率40%70%90%70%液冷空间,亿元1656115140资料来源:IDC,赛迪,英伟达官网,昇腾官网,中国电信,中国移动,国内上市公司也在积极布局液冷,不同厂商参与环节不同,对应的市场空间、直接客户、能力要求也存在GPUCDUmanifold等主要面向最终客户、第三方数据中心厂商、集成商、整柜级产品提供商等销售,更加注重整个制冷循环的系统设计能力等。注:英维克、飞荣达、科创新源、申菱环境、高澜股份、网宿科技等。表11:国内部分上市公司液冷布局公司 液冷相布局英维克

公司是国内领先的精密温控节能解决方案和产品提供商。公司的电子散热业务定位于热源环节的散热/导热,包括液冷部件//AAU/RRU900MW曙光数创

公司浸没液冷产品及冷板液冷产品可以解决算力数据中心的散热问题。公司产品已应用于多家金融、互联网、IDC等行业用户。行业深度报告飞荣达

VC3DVCFacebookgoogle精研科技 2023公司热业的产结构经从之的VC、热、风模逐步向冷和冷模调整。科创新源

申菱环境

高澜股份

CDU资料来源:ifind,连接器/线束:AI等升级通信连接器是传输电流及信号的关键器件,主要应用在各类通讯设备如服务器、5G通讯基站、服务器、数据中心、以太网、高端存储设备等场景。通信领域的连接器产品多为定制化产品,会同时使用电连接器、射DDR接器、数据传输模块用夹层连接器、电源模块用大电流连接器、光传输模块用光纤连接器、信号传输模块用高I/OI/O类连接器主要包括Type-AType-C、RJ45SFPQSFPD-SUBPCIeDDRMini-SASMini-SASHDGenZSlimSAS、高速背板连接器等。行业深度报告图32:服务器部分连接器示意图数据来源:安费诺官网,AI发展,GPU性能不断提升,相关数据中心连接系统架构也向高速升级,从10Gbps-40Gbps向56Gbps、112Gbps、224Gbps等持续迭代升级,当前海外已经发展到224Gbps的数据传输速率,以满足人工智能、1.6T网络等高速连接场景的需求。常用的信号传输分为单端信号和差分信号,差分信号由两根单端信号构成,发射器传输差分信号时,会将单端信号拆分成两个信号幅值相等相位相反的两个信号,再由接收器识别转化为单端信号,接收器会将两个单端信号做一个减法,得到的信号幅值将是单个信号的两倍。差分信号由于抗干扰能力强,在高速信号传输中被广泛应用。连接器速率提升的过程中,对PCB路由复杂性、PCB材料和层数、散热、微间距下的串扰和插入损耗等提出更高要求,技术难度显著提升。以差分阻抗为例,差分阻抗和上升时间强相关,上升时间越短,阻抗波动越大,阻抗越难控制;上升时间和带宽成反比,对于速率越高的产品,阻抗波动会越大,匹配难度会明显增加。AIAtlas900AICable背板连接器架构,实现服务器间及服务器与接入层交换机的互联。当前,传统的背板架构(所有板卡插在背板的同一面,通过无源铜背板上的走线完成各板卡直接的交互)存在走线长、损耗大,无法满足带宽和容量等瓶颈,正交架构未来渗透有望提升。正交架构是指主控板、线路板、接口板等与交换网板处于正交的硬件结构,通过正交连接器直接相连,进一步更大限度缩短了线路板到交换网的走线距离。行业深度报告图33:华为NetEngine8000X8路由器正交架构 图34:英伟达GB200NVL72服务器与RACK连接方式 数据来源:华为官网, 数据来源:英伟达GTC,高速I/O连接器:I/O连接器主要用于交换机与交换机、交换机与服务器之间的数据传输,此前主要SFP28/SFP56、QSFP28/QSFP56I/O连接器进行连接,56GbpsQSFP-DDI/O400G端口容I/O112G、224G64×224GbpsQSFP-DD64×224GbpsOSFP512×224Gbps=102.4T1.6Tbps(224Gbps×8)32×OSFPXD512×224Gbps=02T3.2Tbs224bs×16使用64×OSFPXD的形态,支持1024×112Gbps=204.8T规格的芯片,单口3.2Tbps(224Gbps×16)。图35:高速I/O连接器与光模块互联数据来源:安费诺官网,考虑到随着带宽和速率提升,电信号的有效传输距离将明显缩短,我们认为未来光学方案的渗透率将提升。电PCBTraceTrace损耗增加,因此有效传输距离将明显缩短。IEEEP802.3df100Gbps2m200Gbps1m的可行性,Intel认为在优良材料上可达到1m。随着速率的持续提升,我们认为未来光学方案的渗透率将提升,而短期内光学方案的功耗和成本问题,将会有新技术或新产品来解决,但底层仍然会是光学方案。行业深度报告表12:DAC、AOC、ACC、AEC对比DAC无源铜线 AOC有源光缆 ACC有源铜线 AEC有源电缆铜线(采用retimer芯片传输介质 铜线 光纤

铜线(使用Redriver

结构,通过重定时器进行信号整形和放大)最大传距离 约3米 最高100米 比DAC长2-3米 3-7米功耗 小于0.1w 约10w 高于DAC AOC的一成本 相对较低 高于DAC 高于DAC 介于DAC和AOC之间应用场景

数据中心的高速段距离连接

数据中心和高性能计算环境中,连接网络设备、服务器、存储设备以及其他网络组件

70%布线空间特点线的客户

轻便、长传输距离、易布线和对电磁辐射不敏感,适合有长距离传输和高性能要求的客户

DACAOC功耗低

占用空间小,成本功耗相对于AOC有优势资料来源:光纤在线,目前在224Gbps的连接系统中,仍以海外厂商更为领先,安费诺、Molex、TI等全球头部厂商推出了相对完整的224G连接系统解决方案。国内由于整体网络侧部署升级略晚于海外,同样连接系统升级也会略晚于海外。当前国内厂商产品仍以56Gbps为主,在部分产品领域实现112Gbps、224Gbps产品突破。表13:国内部分连接器上市公司相关布局情况公司 情况金信诺

56Gbps112Gbps2023年上半112G20%-30%5GPCIE6.0THHW-LSAP光电I/O(CAGE)等通讯连接AI6G技术56G-112G-224GQSFP112GQSFP-DD等系列112Gbps。//PCB/5GIoT等新//AI/行业深度报告太辰光

/TOR与服birchstream(pcie5.0)birdstream(pcie6.0)。25G400Gbps(AOC)(DAC25G400G400G-DR4硅光模25G800G硅光模块和CPO202376.1%chatgptAI20243155M-1.6TDACIntel200GperlanePIC1.6T800G2*FR4AI应用和资料来源:ifind,PCB:AIPCB升级,利好头部份额和盈利提升AI发展驱动AI服务器、HPC、交换机和存储等基础设施系统对大尺寸、高层数、高阶HDI以及高频高速PCB产品的强劲需求,并对其技术层次和品质提出更高的要求,拉动PCB需求增长。AIGPUPCBPCBGPUPCBDIGITIMESA100H100GPUPCB16-24GB200OAM/UBB,采用M8CCL20GPUPCBBAIH系30-40%2)CPUPCIe5.0CPUPCBCPU2-3年会进行一次升级换代,以满足新的应用场景下数据传输速率和运行频率不断增加的要求,博通表示,PCIeIntelCPUPCIe3.04.05.0,传输速率最/超低损耗/PCBPCB主流板材为8-16层,对应PCIe3.0一般为8-12层,4.0为12-16层,而5.0平台则在16层以上。行业深度报告图36:PCIe技术发展情况数据来源:博通,forbes,图37:Intel

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论