人工智能行业AI算力市场简析_第1页
人工智能行业AI算力市场简析_第2页
人工智能行业AI算力市场简析_第3页
人工智能行业AI算力市场简析_第4页
人工智能行业AI算力市场简析_第5页
已阅读5页,还剩3页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

人工智能行业AI算力市场简析

01算力是智能世界的基础,产业生态和投资图谱逐步清晰

算力是智能世界的基础,基础设施从云向算泛在演进

智能世界三要素:数据、算力、算法是智能世界三要素,其中算力平

台是核心基础。算力两大类:通用算力、HPC(高性能计算,

High-performancecomputing)算力。其中通用算力计算量小,用于

常规应用。HPC算力是一个计算机集群系统,通过各种互联技术将

多个计算机系统连接在一起,利用所有被连接系统的综合计算能力来

处理大型计算问题,算力基础设施从云向算泛在演进,其位置的分布

从中心向边缘和端侧泛在延伸,将出现云、边、端三级算力架构。

AI大模型带动算力需求超越摩尔定律增长

AI模型训练算力增长速度超越芯片摩尔定律。AI训练任务中的算力

增长(所需算力每3.5个月翻一倍)已经超越摩尔定律(晶体管数量

每18月翻一倍)。ChatGPT仅推出两个月,月活跃用户数预计已达

1亿。ChatGPT在2023年1月达到1亿月活跃用户,平均每天有

1,300多万访客,用2个月时间达到1亿月活数,成为史上最快达到

1亿月活跃用户的应用,TikTok、InstagramxFacebook>Tw计ter则

分别用了9个月、2年半、4年半、5年的时间。

MR、车载等数字经济新型应用场景带来新的算力需求

MR的推出更带来对低延时网络传输和底层算力技术升级的需求。虚

拟世界需要强大的图像实时渲染能力、计算和存储海量数据资源,头

显交互设备的出现将进一步增加对云计算和边缘计算的应用需求。云

计算能将终端渲染逐步迁移至云端,基于规模效应摊低运算成本,提

升服务器使用效率,提升虚拟世界的可进入性。而边缘计算则更能满

足实时数据分析需求、缓解中心云的计算负载。汽车智能化需求持续

升级带来数据流量的急剧飙升。随着自动驾驶等级提升,车载信息娱

乐系统、长续航电池及5G网络的引入,车辆要面对的计算量越来越

大,网络架构升级、本地实时处理能力、’大容量缓存和存储”规格将

成为硬需求。

中美算力布局较为领先,中国智能算力在追赶

智能算力规模和增速亮眼。根据信通院算力白皮书,2021年全球算

力增速超过40%,华为GIV预测2030年人类将迎来YB数据时代,

全球算力平均年增速达到65%,其中基础算力平均年增速达27%;智

能算力占大头,平均年增速超过80%;超算算力平均年增速超过34%o

中美算力在全球属于领先地位。美国、中国、欧洲、日本在全球算力

规模中的份额分别为34%、33%、14%和5%,其中全球基础算力美

国份额达37%,中国以26%份额排名第二;智能算力方面,中国、美

国分别占比为45%和28%;美国、日本、中国在超级计算综合性能

指标方面份额分别为48%、22%、18%。

02基础设备:数据中心加速升级,芯片PCB等上游部件量价齐升

AI服务器采用异构式架构,GPU数量远高于普通服务器。AI服务器

和普通服务器的主要区别在于:1)架构不同,AI服务器采用

CPU+GPU/FPGA/ASIC等异构式架构,而普通服务器一般是CPU

架构;2)GPU数置差别巨大,AI服务器单服务器GPU用量通常在

4颗以上。例如:NVIDIADGXA100包括8个A100GPU+2个

AMDRomeCPU,而浪潮英信服务器NF5280M6仅配置1-2个英特

尔第三代Xeon处理器。GPU架构为主流加速架构,是服务器核心

成本构成。GPU采用并行计算,适用于处理密集型运算,如图形渲

染、机器学习等场景,AI算力需求的提升推动/GPU卡的运算速度

和用量需求进一步增长。根据IDC数据,2022年GPU加速卡占据

AI市场89%的份额,在机器学习型服务器中GPU成本占比达72.8%o

高速互连技术开创者,多卡互联优势显著。为实现超算模型的高速通

信需求,英伟达开创式提出NVLink和NVSwitch技术:NVLink主要

用于连接多个GPU,以加速高性能计算和深度学习等应用;NVSw让ch

用于连接多个GPU和CPU,形成高性能计算系统,适用于更复杂和

大规模的场景,用户可根据具体应用需求和系统配置来决定使用

NVLink或NVSwitch“GH200超级芯片所采用的NVLink-C2c技术,

通过Chiplet工艺将CPU+GPU组合到同一封装,相比于PCIe5在

能效方面提升25倍,面积效率提升90倍。CUDA生态不断演进,

满足各类行业需求。英伟达依托于CUDA软件栈进行第三方应用及

工具的扩展,形成了广义的CUDA生态,并在此基础上向上扩展出

CUDA-X,以对接不同的行业应用需求,分为面向AI计算的

CUDA-XAI和面向HPC计算的CUDA-XHPCo

受益大模型热潮,国内AI服务器市场增量明显。ChatGPT横空出世,

引发科技企业大模型竞赛,全球算力需求呈指数级增加,带动国内

AI服务器市场快速增长,以浪潮信息为主的国内厂家占据国内AI服

务器主要市场。头部厂商持续加单,国内AI芯片需求强劲。全球头

部互联网厂商相继入局大模型赛道,以英隼达GPU为代表的算力核

心产品订单暴增,一批中国AI芯片企.业立足于不同技术路径开展研

发,面向云计算、汽车、智能家居等领域,国内AI芯片市场同样前

景广阔。

大力发展硬件的同时,软件也是及其重要的一环。英伟达不仅在硬件

方面具有统治力,在软件平台也具有很强的竞争力,CUDA生态已成

为行业标的。对国内企业而言,兼顾软硬的发展路径至关重要,大力

发展算力的同时,国产软件生态的建立刻不容缓。共建生态开发平台,

加速AI芯片落地。寒武纪不仅实现了终端、云端、边缘端产品的完

整布局,还为云边端全系列智能芯片与处理器产品提供统一的平台级

基础系统软件CambriconNeuware,使开发的应用可以在云边端互相

兼容,大幅减少云边端不同平台的开发和应用迁移成本。华为同样致

力于“一平台双驱动”为核心的昇腾AI生态,已有200多家合作伙伴

经过认证,围绕昇腾的开发者超30万,其中核心开发者超2000,并

在100多所高校开展了昇腾的人工智能课程。

HBM:需求暴增,产能紧缺

HBM内存技术:新型高性能存储产品的竞争与短缺。HBM

(HighBandwidthMemory,高带宽内存)是一款新型的CPU/GPU

内存芯片,是将多个DDR芯片堆叠在一起后和GPU封装在一起,

实现大容量和高位宽的DDR组合阵列。目前HBM占整个DRAM市

场比重约1.5%,为新型高性能存储产品,处于缺货低库存阶段。SK

海力士、三星、美光等存储巨头都在HBM领域展开了升级竞赛c

SerDes作为底层接口技术,是充分发挥AI硬件算力效能的关键。

SerDes是Serializer/Deserializer的缩写,即串行器和解串器,是目

前主流的串行通信技术。通过数据在发送端并转串一串行传输一在接

收端串转并,实现芯片间信号的有线传输。相比于传统并行接口传输,

SerDes具有更高的速率(Gbps级)、更低的功耗,以及显著的成

本优势,能够满足AI训练&推理等场景下高带宽、低延迟的数据传输

要求,适用于电信、汽车、工业等领域。

PCB及载板:规格加速升级,单机ASP持续上升

OAM卡,是承载GPU加速卡片的PCB板,以NVIDIADGXH100

服务器为例,其可搭载8颗GPU,显著高于普通服务器,因此其PCB

用量显著高于普通服务器。AI服务器的OAM卡需要用更高层数的

PCB板,价值量更大。由于AI服务器电路更加复杂,需要更大带宽

和更高传输速率,因此OAM需要更高层数PCBoNVIDIAOAM共两

个版本,SXM约需要20层PCB,而Pcle版本层数相对较少;相比

传统服务器,AI服务器的PCB层数更高,单台PCB价值量大幅提

升。AI服务器的OAM由于芯片性能的提升,对布线密度提出了更高

要求。其需要4阶及以上HDI加工工艺,根据靖邦电子,HDI板增

加一阶,成本增加18%左右,因此带动。AM的ASP上升。目前国

内企业鹏鼎控股、沪电股份、奥士康、胜宏科技等均有领先布局。

交换机:速率需求升级,锐捷和新华三竞争力提升

数据流量快速增长和人工智能快速发展推动数据中心网络架构转型,

有望驱动交换机数量和端口速率上行,高速以太网交换机市场有望实

现强劲增长。根据IDC预测,中国25G端口交换机市场规模到2022

年将达到4.4亿美元,而100G交换机市场规模将达到13.87亿美元。

国内交换机市场集中度较高,锐捷和新华三市场份额提升。根据IDC

测算,2022前三个季度新华三、华为、星网锐捷三家市占率已经超

过80%,国产份额持续保持领先。

03网络连接:算力配套的核心,兼顾800G主线和扩散行情

800G主线:互联带宽快速提升,催化800G模块需求

网络性能是决定AI集群算力效率的核心要素。根据阿姆达尔定律,

并行系统节点数越多,而其通信占比越高,对整体系统运行效率的影

响越大。因此AI芯片的互联带宽都需要非常巨大,如H100互联达

到了900GB(1B=8bps)。以Nvidia历代GPU为例,芯片互联速

率显著提升,GPU互联速率提升=nvlink自身单通道的升级*link的数

量。芯片互联性能持续提升,对于节点外的芯片互联,需要经过数据

中心网络,带来网络架构的变革。以Nvidia的DGXH100集群为例,

单节点服务器侧(8卡)接入带宽为3.2T,交换机侧采用32*800G

的交换机。

核心要点:1)在非Nvlink组网中,接入带宽是由网卡的速率*网卡

的个数决定的。2)Nvidia构建的基本都是无阻塞的收敛比为1:1的

架构。3)实际上Nvidia的推荐方案中部分端口是闲置的,不能直接

数交换机端口数。4)对于谷歌TPU、MI300等,也取决于接入网络

的带宽到底是多少,有一个初始值,我们既可以算出不同层数下需要

的800G端口数。

数据中心底层硬件,保障高速高质量信号传输。连接器作为连接系统、

实现光/电信号传输交换所必需的基础配件,广泛应用于通信、汽车、

消费电子、工业交通、航空航天、军事等领域。传输高速高频数据信

号的同时须保证电路阻抗连续性好、串扰小、时延低、信号完整性高。

数据中心连接新趋势不断涌现,对连接器&线束性能要求持续提升。

随着数据中心规模不断扩大、组网模式日益复杂,研发更快速度、更

高密度和更小型化的连接器以及更高集成度的线束成为行业技术发

展的趋势。

连接器顺应光模块迭代趋势实现用量增长。根据集成光纤数量的不同,

常见的光模块连接器可分为LC接口和MPO/MTP接口,100G以下

光模块多使用LC接口,100G以上光模块则需要光纤集成度更高的

MPO/MTP接口(常用2~48芯)。随着光模块速率从100G/200G

向400G/800G跃升,单个光模块的通道数量增加,所需使用的单个

连接器的通道密度&分支端连接器数量也增加,即需要更多的

MPO/MTP连接器。

04终端:边缘算力建设加速,MR是最具潜力的A1终端

谷歌PaLM2全面进化,“大语言模型的小型化”迎重大突破。在谷歌

I/O2023大会上,推出PaLM2,改进了数学、代码、推理、多语言

翻译和自然语言生成能力。PaLM2包含了4个不同参数的模型,包

括壁虎(Gecko)、水獭(Otter)、野牛(Bison)和独角兽(Unicom。

其中,PaLM2最轻量版本Gecko小到可以在手机上运行。小型化模

型将打破智能终端性能冗余窘境,终端接口的硬件性能将迎大升级。

目前,以手机为代表的智能终端性能冗余,算

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论