全球算力十大趋势2026_第1页
全球算力十大趋势2026_第2页
全球算力十大趋势2026_第3页
全球算力十大趋势2026_第4页
全球算力十大趋势2026_第5页
已阅读5页,还剩55页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

全球算力十大趋势(2026)Top10TrendsinGlobalComputingPowerDevelopment2026寄

语人类文明的每一次跃迁,皆始于对未知的追问与探索——从蒸汽驱动工业革命到算力支撑智能觉醒,探索精神始终是文明进阶的核心密码。如今,人工智能的浪潮正以超越历次科技革命的速度重塑世界。算力,正是托举这场智能变革的基石,成为驱动产业变革的“新质生产力核心”,算力的突破速度决定着智能文明的进阶高度。全球计算联盟秉持“开放协作”理念,推动新架构共识与生态繁荣,此次趋势报告正是产业协同的智慧结晶。它不仅洞察未来算力发展趋势

,解码算力发展规律

,更呼应了AI从使能工具向紧密伙伴演进的必然方向。探索未知

,方能跃见未来。期待这份报告为算力产业链伙伴们提供未来发展参考方向;让算力创新更普惠、更可持续;也欢迎大家一起加入全球计算联盟共同推动计算产业开放创新

,支撑数智社会可持续发展。全球计算联盟理事长

金海序当数字浪潮席卷全球

,算力已从技术底层跃升为重塑文明进程的核心力量,成为衡量国家竞争力的关键维度。从实验室的算法迭代到产业界的智能转型,从科学探索的前沿突破到日常生活的便捷体验,算力正以无形之网连接万物,推动人类社会迈入一个以智能为底色的全新纪元。人工智能引领的技术革命,仍在加速。全球算力规模呈指数级增长,各国竞逐算力高地,互联网巨头与科技企业纷纷加码布局,让算力竞赛进入白热化阶段。AI大模型逐渐进化为支撑智能世界运行的“操作系统”

,深度渗透制造业

的智能工厂、医疗领域的辅助诊断、交通行业的自动驾驶,乃至农业的精准种植,让千行百业在智能赋能下焕发新活力。与此同时,计算架构本身也在经历深刻变革:从以CPU为中心的传统范式,走向异构平等、多样协同的新架构;以超节点为代表的新型算力底座,正突破单一节点算力的瓶颈;算力与网络深度融合

,逐步实现“算力随需、即取即用”。这些系统级创新不仅是技术的跃迁

,更是产业模式与价值创造方式的重构。站在2025年底的时间节点

,回望过去

,算力驱动创新的足迹清晰可见;展望未来

,智能世界的图景徐徐展开。全球计算联盟GCC的报告所呈现的十大趋势,仅仅是我们对当下算力发展趋势的行业观察与研判,我们将汲取专家们的智慧

,例行更新我们的研究报告。目

录趋势一:全球算力规模高速增长,算力竞赛白热化,算力成为全球科技竞争的战略制高点………………2趋势二:AI加速进入千行百业

,大模型将成为未来智能世界的操作系统

,创造价值将是第一要素……………………7趋势三:跨越虚实边界,数字智能向具身智能演进,世界模型成为关键支撑

…13趋势四:超节点成为算力新底座,智算中心进入超节点时代

……………………18趋势五:从以CPU为中心的计算架构,迈向多样化平等计算架构

……………23趋势六:以网强算,建设毫秒级算力网,强化算力基础设施高质量发展

………28趋势七:超算与智算走向融合,构筑科学计算新范式

……………34趋势八:智算时代需要更加开源开放的生态体系,加速产业创新

………………39趋势九:算力中心向智算中心迈进,高密化、液冷化和集群化成为发展方向,能源成为关键要素·……………………43趋势十:量子计算走向工程化阶段,未来1-2年将是量子计算从技术突破走向商业化应用的关键窗口期·

…………48本文以“算力释放智能价值”为主线,采用从底层技术支撑到上层场景应用、从单点技术突破到产业变革作为思考脉络

,通过聚焦产业趋势、AI应用、开源框架、算力硬件、基础设施五大核心维度

,梳理全球算力十大趋势。在产业趋势层面,全球算力竞赛持续升温,使其成为大国竞争的战略制高点;超算与智算的深度融合正突破传统科学计算的范式边界;而量子计算工程化的探索,则预示着新的计算范式处于从技术突破到商业验证的关键窗口期。算力不仅是经济增长的引擎

,更是重塑国家核心竞争力的关键。在AI应用维度

,大模型已升级为智能世界的“底层操作系统”

以泛化能

力驱动AI深度渗透千行百业;数字智能向具身智能的演进进一步打破虚实边界

,使智能从虚拟信息处理延伸至物理世界的实时交互

,而价值创造能力则成为AI应用从技术验证走向商业闭环的核心标尺。开源框架是算力生态的核心基石

,通过全栈开源打破技术垄断、降低创新门槛,依托全球开发者协同加速技术迭代,为产业创新者,搭建起参与智算革命的桥梁

,更有效破解产业链协同难题

,为算力产业创新注入普惠性活力。在算力硬件层面

,计算架构正从以CPU为中心走向多样化平等架构

,GPU

及各类xPU协同发力

以匹配多元算力需求。超节点作为智算中心新底座

,通

过平等互联技术突破“

内存墙”瓶颈

,支撑起万亿参数模型的高效低时延运行。基础设施则构建起算力高效运行的底层骨架,通过毫秒级算力网打通跨地域、跨集群的资源流动壁垒,智算中心的高密化、液冷化与集群化升级,更在全球能源约束背景下实现算力的绿色高效承载

,为算力硬件的效能释放与AI应用的规模化落地提供高可靠、可持续的运行环境。-

1

-趋势一:

全球算力规模高速增长

算力竞赛白热化,算力成为全球科技竞争的战略制高点-

2

-在数智文明加速发展的今天,算力已超越传统基础设施范畴,成为数字经济的底层基座与新质生产力的核心引擎。产业端

,它重构智能制造、能源调度、金融创新的核心逻辑,让柔性生产、精准决策成为常态;生活端,它赋能智慧出行、远程医疗、普惠教育

,让个性化服务触达每个角落。伴随着算力实现全域渗透

,加速生产与生活全场景跃迁

,将深刻推动社会发展进程。算力成为数字经济的底座,对经济增长发展起到主导型作用算力不仅是承载数字经济发展的底层基础,更是核心驱动力。从要素看,算力将数据转化为价值;从工具看,算力是科技创新的加速器;从结果看,算力催生新产业、提升旧产业。数字经济成为全球经济发展引擎,算力成为创新的核心。根据相关权威机构的研究,算力是经济发展的倍增器。加大对算力等数字基础设施的投入

,能够有效驱动各行各业的业务创新和经济效益增长。来源:综合相关研究算力赋能千行百业

,驱动全要素生产率跃升。据哈佛大学研究显示

,美国2025年上半年

,算力的投资在GDP增长中的贡献达约92%

,起到主导性的作用。-

3

-算力即国力

,各国密集出台政策

,加大对算力发展的政策扶持世界各国已将算力发展提升至国家战略高度

,通过多种政策予以强力扶持

,抢占新一轮科技革命与产业变革的制高点

,筑牢国家数字竞争力与安全基石。中国:将人工智能纳入国家顶层战略

,“十五五”规划将算力明确提升为数字经济时代的新质生产力核心要素,构建全国一体化、智能高效、绿色普惠的算力体系

以支撑人工智能、工业互联网等前沿领域发展;2025年8月国务院印发《关于深入实施“人工智能

+”行动的意见》

,明确

2027

年新一代智能终端、智能体等应用普及率超70%,2030年这一比例突破90%,工信部、发改委等部门同步推出配套产业政策

,构建全链条支持体系。美国:发布《AI行动计划》

,聚焦人工智能创新加速、基础设施建设与技术推广,简化数据中心审批流程,计划投入数千亿美元联合科技巨头推进半导体制造本土化

以监管松绑激发创新活力。欧盟:通过《人工智能大陆行动计划》,推动传统优势产业向人工智能创新引擎转型,目标打造全球人工智能领域领导者,规划建设13个AI工厂与5个超级工厂

以立法形式推动数据中心扩容与绿色转型

,法国同步推出千亿欧元

AI投资计划抢占技术制高点。其他:

日本、韩国强化高性能计算部署以适配AI爆发式需求

,东南亚与中东成为算力外溢核心区域

,阿联酋G42集团联合微软与OpenAI打造中东最大AI算力中心

,新加坡、

马来西亚通过政策红利吸引亚马逊、

阿里云设立区域算力节点。算力是人工智能进步的核心,未来五年智算算力规模将增长千倍算力是驱动人工智能突破的核心,自从2010年深度学习开始快速发展以来,-4

-全球头部互联网厂商在全球算力建设浪潮中起到引领性作用,主导性不可替代全球头部互联网厂商凭借技术积累与资本实力,成为算力基础设施建设的核心引领者

,其布局力度直接影响全球算力格局与AI发展进程。尽管面临短期盈利压力

,但头部厂商仍全力抢占算力制高点以定义未来

AI时代的技术标准与商业模式。美国科技四巨头微软、谷歌、亚马逊、Meta,2025年

AI

相关资本支出预计高达3640亿美元

,远超市场预期

,彰显对

AI战略的空前投入。

中国互联网龙头企业同步加速布局

,阿里宣布未来三年投入超3800亿元用于云计算及

AI

硬件基础设施

,其中80%

定向投向

AI

服务器;

腾讯2025年预计投入近千亿元

,重点聚焦大模型训练与推理资源扩容;

字节跳动2025年预计斥资1600亿元

,构建AI成本与体验的核心竞争壁垒

,全球算力建设的主导权正加速向头部厂商集中。据相关统计,超大规模云服务商和互联网厂商算力投资占据全球算力投资的60%。AI算力正从辅助资源演变为企业的核心战略资产AI算力的增长就保持着每年4到5倍的速度,特别是Transformer架构自2017年被提出以来,它强大的并行处理能力,使得构建拥有数千亿甚至万亿级别参数的超大规模模型成为可能,进而引爆算力的需求。根据华为、阿里等预测,2025年到2030年AI算力将增长千倍左右。-

5

-据预测

,到2029年全球AI支出将达1.3万亿美元

IT总支出比重突破26%。企业AI算力投资占比正从当前的5.9%向15.9%跃升,推动企业资源分配范式重构:过去以人力资源为成本中心的模式,正让位于“算力优先”的新逻辑。行业案例显示,部分企业为保障算力投入已启动结构性调整,通过优化人力成本以支撑算力基础设施的扩容需求。

当AI创造的价值数倍于其算力成本时

,产业智能化将迎来爆发拐点。企业需重新定义资源战略,使人才组织与算力资源高效协同

,方能在智能时代构建持续竞争力。人工智能的发展轨迹和未来前景远超我们的预期算力的持续突破正推动人工智能产业进入高速扩张期。

普华永道预测

,到2030

年人工智能将为全球经济贡献15.7万亿美元,带动全球GDP增长14%;其中中国将受益显著

,人工智能预计拉动GDP增长

26%

,贡献30万亿元人民币。未来几年,人工智能可能逼近AGI,技术突破带来能力跃升,也放大了偏见、安全等系统性风险。构建“

以人为本、AI

向善”

的治理框架至关重要

,需确保价值观对齐、系统稳健、决策透明、结果公平,并明确责任与隐私保护。人工智能的“可信可控”将是重要的议题

,推动可解释AI、

隐私计算等关键技术发展。政府、企业需加速建立敏捷治理机制,唯有坚持伦理先行、安全为本,方能引领智能时代迈向可信、公平、可持续的未来。-

6

-趋势二:AI加速进入千行百业

,大模型将成为未来智能世界的操作系统

创造价值将是第一要素-

7

-2025

年作为大模型应用落地元年

,全球大模型技术正加速从

“技术验证”迈向

“商业闭环”。大模型已超越单纯工具属性

,升级为承载智能世界应用的

底层平台

,“

以大模型为核心、应用与智能体为外围”的生态体系

,正逐步构

建起智能时代的底层架构

,推动

AI

全面渗透千行百业。大模型意图理解能力的突破

,部署成本的大幅下降

,加速大模型在千行百业的落地技术层面,大模型实现关键能力突破。深度推理能力的跨越式提升,使其能应对多文档分析、长周期任务规划等复杂场景;自主决策与工具调用能力的进化

,让单任务从

“单次交互”

升级为

多步骤协同”

,例如工业智能体完成订单调度需联动生产、仓储、物流等多个模块

,实现对复杂流程的深度赋能。成本层面,落地门槛大幅降低。训推一体机、模型蒸馏、微调技术、低精度量化技术快速成熟,让几十亿至百亿参数模型的本地化部署成为现实,显著降低

企业应用成本;开源生态持续完善

,Qwen开源模型占据HuggingFace平台新

增衍生模型的40%以上

,为中小企业参与

AI

创新打开通道。AI应用规模爆发

,激发更庞大的算力需求杰文斯悖论指出,资源使用效率的提高会因使用成本降低刺激需求爆发,最终推动总消耗量增长。这一规律在

AI

领域同样适用:随着大模型技术迭代,推

理能力每7个月翻一倍,推理成本呈指数级下降,直接刺激了各行业对

AI

应用

的需求激增。需求爆发进一步带动算力需求持续增长,形成不可逆转的发展态势

,推动AI从“选择性应用”

向“普遍性依赖”转变。据SensorTower《2025年AI应用报告》数据,2025年上半年,AI应用在

下载量、用户付费及使用时长等核心指标上均实现爆发式增长

,下载量超17亿-

8

-智能体承担越来越复杂的任务

,倒逼有泛化能力的大模型作为底层的引擎OpenAI预测人工智能正从“推理者”阶段向Agentic

AI智能体跃迁

,当前基于强化思考的模型正演进为能自主规划、执行复杂任务的智能体。智能体将承担的任务日益复杂,对底层算力与泛化能力的要求远超传统模型,倒逼大模型成为智能生态的核心引擎

,重塑行业操作系统的定义。智能体对算力的需求呈量级提升,据相关研究,相同用户规模下,智能体模式相比传统大语言模型的算力需求高出几个数量级。金融领域

,工商银行

“商户智能审核助手”

通过多模态技术处理准入材料

,单批次审核的

Token

消耗次

,较2024年下半年环比增长67%

,AI应用的总使用时长突破156亿小时,总会话次数达4260亿次

,相当于全球每人平均使用约50次。大模型效率提升与成本下降,正通过杰文斯悖论激发更庞大的

AI

应用需求,形成

“效率提升—需求爆发—算力增长”的正向循环。-

9

-量是传统

OCR

技术的数十倍;工业场景中,西门子IndustrialCopilot由多个AI

Agent

组成,覆盖订单调度、生产管理全流程,单次完整生产周期的

Token

处理量达数亿级;用户端,腾讯元宝日均提问量已达年初一个月总和,交互频次提升直接带动

Token

需求激增。传统操作系统(如安卓、

iOS)

的核心是管理确定性硬件资源

,而

AI时代的核心需求是处理自然语言理解、多模态交互等不确定性任务。大模型作为

“不确定性引擎”

,能将人类意图转化为可执行操作

,这是传统

OS

无法实现的核心价值。

生态构建模式也随之革新:传统OS

通过

App

搭建生态

,而大模型通过智能应用与

Agent

形成新生态

,成为智能世界的底层操作系统。Token需求的指数级增长

需要更经济的算力供给体系Token

消耗规模爆发式扩张:2025

4

月数据显示

,谷歌

AI

搜索模式日均

Token

消耗量达

27

万亿

,国内头部

AI

产品

Token

调用量月均增长数倍;智能体执行单次任务平均消耗

Token

达数十亿量级

,多模态内容生成成为增长最快的细分领域。高昂的算力成本成为核心瓶颈,倒逼算力体系升级:硬件层面

,形成CPU(复杂计算与调度)

、GPU(高性能并行计算)

NPU/ASIC(低功耗推理)

的多元算力协同供给模式;服务器技术突破

,通过PD

分离等-

10

-AI推理算力需求的爆发式增长

,推动全球芯片巨头加速布局专用推理芯片。2025

9

月,英伟达推出专为长上下文任务设计的RubinCPX

芯片,采用创新分离式架构,处理百万级

Token

任务时性能较前代提升

6.5

倍,预计

2026

年上市;华为在全联接大会发布昇腾950PR专用推理芯片,聚焦推理预填充阶段,

FP8

算力达1PFLOPs,搭载128GB

自研

HBM

内存,计划2026年一季度上市。数据将决定模型智能的高度

,成为驱动模型突破技术瓶颈、

实现规模化赋能的关键支撑对于模型智能而言

,数据的质量、标注精度与多样性直接决定其认知深度:高质量数据让模型突破浅层拟合,实现对复杂规律的深层理解;跨领域、多模态数据的融合

,赋予模型更强的泛化能力与决策准确性

,推动智能高度持续攀升。当前,从通用大模型到行业及场景大模型的精细化训练,无不依赖于高质量数据集的支撑

,而高质量领域语料的构建

,往往需要投入大量的专业领域知识。作为AI

模型训练与迭代的核心要素

,数据的质量、规模与多样性

,直接定义了模型的认知边界、决策精度与泛化能力。高质量数据的持续输入,能让模型不断技术

,推动

AI

推理进入百万

Token

低于1美元的时代。-

11

-习得复杂场景规律,从感知智能向认知智能跨越;而多维度、跨领域的数据融合,更能打破模型的应用局限

,使其在工业、

医疗、城市治理等场景中深度适配。未来的竞争,将不再是Token消耗量这些表象

,而是转向更根本的维度——价值创造根据相关权威研究表明,虽然AI投资回报率(ROI)可观,但多数企业在实践中却难以兑现对等的商业价值。当下模型运算的Token消耗量与AI产品的用户规模被过多关注。未来的竞争中胜出的真正赢家,将是那些能运用更优的模型、更高效地组织并激励内外部资源,从而解决更真实、更迫切社会与商业问题的组织。评判标准将是解决实际问题的深度、提升产业效率的高度以及增进人类福祉的温度。-

12

-趋势三:

跨越虚实边界

数字智能向具身智能演进,世界模型成为关键支撑-

13

-人工智能领域正迎来深刻的范式转移:从专注于数字世界信息处理的

“数字智能”,迈向能够在物理世界感知、理解、行动的

“具身智能”(Embodied

Intelligence)

。世界模型作为核心支撑

,推动虚实边界持续消融

,重塑人类与物理世界的交互方式

,开启智能应用的全新维度。虚实融合加速演进

,物理世界需求驱动智能形态跃迁物理世界中大量重复、危险、精细的劳动场景,构成自动化技术的蓝海市场。传统自动化设备受限于预设程序,缺乏适应性与泛化能力;而传统数字智能虽擅长处理文本、图像等虚拟数据,却因

“离身”

属性难以跨越虚实交互的天然鸿沟

,无法满足物理世界的自动化需求。具身智能的出现填补了这一空白,它是数字智能在物理世界的“

实体延伸”,以

“拥有物理载体、具备执行能力、能够主动交互”

为核心特征。其技术演进遵循

“感知—认知—行动”

的闭环优化路径:多模态感知融合视觉、听觉、触觉等传感器信息,实现环境全面理解;认知决策层面强化世界模型的推理预测能力;行动控制环节提升动作的精确性与适应性,最终实现智能体与物理世界的深度交互。具身智能是数字智能在物理世界的"化身"

,将开启万亿赛道-

14

-具身认知强调,智能并非抽象的计算过程,而是通过本体与环境的互动产生的。从纯粹的软件算法转向具身化系统,使智能体能够通过物理载体与环境交互

,实现感知、学习和决策等智能行为。具身智能将构建涵盖核心零部件、软件平台、整机制造、应用服务的庞大产业链

,其市场潜力持续释放。据预测

,仅中国市场规模在

2030

年有望突破万

亿元

,成为数字经济与实体经济深度融合的核心增长极。从工业制造的智能巡检、仓储物流的自主搬运

,到家庭服务的陪伴机器人、医疗康养的辅助护理,具身智能将渗透千行百业,重构生产流程与生活场景。它不仅能替代高危、重复劳动,更能创造全新服务模式与商业价值,推动社会生产力实现质的飞跃。世界模型作为具身智能的“大脑”,决定具身智能的

“认知上限”世界模型(WorldModels,WMs)

作为具身智能的

“大脑”

,是其理解物理规律、实现高效交互的核心基础。它本质是生成式

AI

模型,通过构建内部表

征捕捉真实世界的物理特性与空间属性,整合视频、文本、运动数据等多源输入

,实现环境模拟、动作指导与决策优化。-

15

-世界模型以

“感知

-

预测

-

决策”

为核心闭环

,具备三大关键能力:一是因果推理能力,可模拟假设性场景结果,如自动驾驶中不同避让策略的后果推演;二是时空一致性建模

,通过长期记忆机制维持

3D

场景结构稳定与时间演化连贯

,规避传统模型的

“失真问题”

;三是多模态物理规则融合

,能精准模拟流体运动、物体碰撞等复杂物理现象

,其性能可通过FID(图像质量)、FVD

(视频时空相似度)等指标量化。目前全球主流模型各具优势:谷歌

Genie3

擅长实时交互,英伟达

COSMOS

构建全栈开发平台,商汤

“开悟”

在高分辨率多视建模领域处于领先地位。具身智能系统作为能够理解并模拟物理世界动态规律的AI系统,其核心优势在于对物理规律的把握具身智能的落地需求,正倒逼

AI

技术栈、硬件体系与计算架构的全方位革新

,形成从软件到硬件、从云端到终端的协同升级。

多模态融合深化:需处理视觉、听觉、触觉、力觉等多维数据

,推动多模态感知、融合与理解技术突破

,构建更立体的物理世界认知。

计算架构演进:从

“云端大模型”

为核心

,转向

“云

-

-

端”

协同的分布式架构

,云端负责训练复杂世界模型与通用大脑,边缘与终端部署轻量化模型

,保障实时感知与快速响应。

基础硬件创新:催生更高精度、低成本的传感器,更强劲、柔性的执行器(如灵巧手)

以及专为具身智能设计的低功耗、高算力

AI

芯片。

算力需求激增:处理多模态信息与动态模拟需海量算力,例如生成

60帧

4K交互视频流每秒需处理超10

万个

token,一小时持续交互的上下文

token量突破1

亿

,对计算与存储能力提出极高要求。-

16

-挑战与展望:迈向高级的具身智能

,仍需关键技术突破具身智能系统从概念到成熟面临多重挑战,需要从技术、数据和算力等多维度寻求突破。特别是在复杂动态环境中的泛化能力仍有待提高,包括物理规则模拟精度不足、

因果反事实推理能力缺失、多模态数据融合困难。未来,随着世界模型的持续优化、硬件成本的下降与算力体系的升级,具身智能将逐步攻克技术瓶颈,实现从特定场景试点到规模化应用的跨越。它将彻底打破虚实边界

,让智能真正融入物理世界

,成为推动社会进步的核心力量。-

17

-趋势四:

超节点成为算力新底座

智算中心进入超节点时代-

18

-当

AI

大模型参数量突破十万亿级、智能体单任务

Token

消耗达数亿量级,全球算力需求呈指数级爆发。传统智算中心受限于芯片工艺物理极限与

内存墙”

瓶颈

,算力供给模式面临根本性变革

,超节点作为系统级创新载体

,正重塑算力基础设施格局

,标志着智算中心正式迈入超节点时代。算力爆发倒逼计算架构革新AI

商业化落地与技术迭代

,催生了对高效能、低时延算力的刚性需求

,传统算力供给模式已难以适配。大模型训练与推理对算力提出极致要求:万亿参数模型单次训练需消耗千亿级浮点运算能力

,复杂任务智能体的Token消耗达数亿量级;

多模态应用、科学模拟等场景则推动算力需求从通用计算向专用高性能计算延伸。而摩尔定律放缓导致芯片性能提升幅度下滑

2018-2022年AI芯片性能年均提升50%

2023-2025

年已降至20%以下

,单点芯片突破难以为继。传统架构存在天然瓶颈:冯诺依曼架构下,数据需在处理器与内存间频繁搬运

,30%-50%

算力消耗于数据传输

,时延居高不下;“横向扩展”的传统计算集群,通过通用以太网连接标准化服务器,难以满足大模型分布式训练中高频次集合通信对带宽与时延的核心诉求,集群规模扩大后瓶颈愈发突出。在此背景下,通过超节点实现存储、计算、网络资源的系统级整合,成为提升算力效率的必然选择。当前,中国算力产业在高端芯片设计与制造环节仍面临显著差距。设计工具

(EDA)

受国际厂商主导

,7纳米及以下先进制程的制造能力受限

,同时

,核心材料如高端光刻胶、大硅片等对外依存度较高。这导致国产算力芯片在高端数据中心、智算中心等关键场景的市场占比偏低,90%以上的AI训练芯片依赖进口

,制约了国家算力自主供给能力。在芯片先进工艺演进遭遇物理极限与成本约束的-

19

-背景下,以超节点架构补位芯片短板,成为中国突破算力效能瓶颈的重要路径选择。超节点打破传统服务器的硬件边界

,通过平等互联技术

,重构算力供给形态超节点并非简单的硬件堆砌

,而是通过平等互联技术打破传统服务器边界

,构建统一资源池

,实现算力的高效协同与价值释放。其核心优势源于基础技术、系统能力与软硬协同的三方支撑:基础技术层面,依托超高带宽互联、内存统一编址等特征,将数百上千个

AI

处理器编织为逻辑统一的高密度计算体,提供底层支撑;系统能力层面,具备大规模组网、高可靠运行、多场景适配特性,突破单机硬件限制,化解故障风险,通过精细化调度满足多元业务需求;软硬协同层面

,通过定制化软件框架释放硬件潜力。以华为

CloudMatrix384

超节点为例,其采用高速网络总线,实现

384

颗昇腾NPU与192

颗鲲鹏CPU的平等互联

,支持

“一卡一专家”

灵活部署模式

,大幅提升MoE

模型推理效率。超节点域内可实现百GB/s

级通信带宽、纳秒级时延、TB

级超大内存

,既能以极致吞吐支撑万亿参数训练

,也能以低时延满足企业级大规模推理需求

,实现集群能力跃迁。-

20

-新型计算总线成为突破计算瓶颈的关键新型计算总线作为突破计算瓶颈的核心,从芯片间、节点间到全域协同,构建全层级高效互联体系

,重构算力能力边界。芯片间互联技术持续迭代:ScaleUp协议(NVLink、灵衢、

UALink等)提供百纳秒级时延,支撑多芯片协同;CXL

协议简化异构计算编程模型;UCIe

标准推动

Chiplet

互联标准化,促进产业链分工。节点间互联技术优化升级:Scale

Out(Infiniband、UEC、灵衢等)提供数百

Gbps

带宽与微秒级延迟

,成为高性能计算首选;硅光互联技术为长距离、低功耗、高带宽互联提供新路径。全域协同层面

,Scale

Across

总线构建跨集群互联架构

,让分散算力集群形成统一资源池,高效响应跨场景、跨地域弹性算力需求,为超大规模模型演进提供支撑。依托高速互联技术,超节点将大带宽互联范围从单台服务器扩展至整机柜及跨机柜大规模集群,彻底打破传统架构的连接限制。相较“服务器集群”,超节点代表的是弹性、池化、开放的系统能力:既能以极致吞吐支撑万亿参数训练,也能以低时延满足企业级大规模推理的刚性需求。随着超节点成为AI基础设施的核心,垂直整合和协议开放两种主-

21

-流生态模式角逐产业主导权

垂直整合模式:通过端到端控制从

AI

芯片、互联技术到编程模型的全技术栈

,追求最优性能与效率。但互联协议闭源

,用户面临厂商锁定风险

,选择灵活性受限

,且成本高昂。

协议开放模式:

“兼容性”

“选择权”

对抗封闭性

,构建基于开放标准的多元化生态,参与者包括

AMD、Intel、Meta、Microsoft

、华为等。通过灵衢、“超级以太网联盟(UEC)”“超级加速器互联(UALink)”

联盟推动技术标准化

,但存在生态碎片化、性能优化难度大的核心挑战

,且缺乏配套软件实现。超节点形态将成为智算中心的主流基础设施根据TrendForce等咨询公司预估

,2025年

BlackwellGPU将占英伟达高阶

GPU

出货比例

80%以上

其中

Blackwell

GPU

主要应用于超节点

(如NVL72,NVL36、

GB200Rack、

HGXB200等新平台产品)

。根据相关的统计

,超节点出货的GPU

占其50%左右,这清晰表明,通过先进互联技术将多个GPU整合为统一计算资源的“超节点”形态,未来将成为高端智算中心的主流基础设施。可以预见超节点计算形态将是智算中心的主流。超节点的崛起,标志着智算中心从“硬件堆叠”

向“系统创新”

的质变,是应对算力指数级增长、突破技术瓶颈的必然选择。作为算力新底座,超节点将通过软硬件协同的架构优势,支撑

AI

技术持续迭代与产业深度赋能,引领全球算力基础设施进入全新发展阶段。-

22

-趋势五:从以CPU为中心的计算架构,迈向多样化平等计算架构-

23

-延续半个多世纪的

“CPU

为中心”

主从计算范式正被打破。

随着人工智能爆发式增长与能效瓶颈日益凸显,由CPU、GPU、NPU、DPU

ASIC、FPGA等多样化处理器组成的平等协同架构,成为计算架构的核心演进方向,重塑数据中心算力供给逻辑。单一架构难以满足多样化算力需求,驱动计算架构向多样化发展传统

CPU

主从架构的通用性优势,已无法满足现代数据中心专业化、多样化的算力诉求

,驱动架构向多样化、协同化转变。工作负载呈现极致分化:AI

训练需海量并行浮点运算能力

,网络功能虚拟化依赖高速数据包处理,大数据查询侧重特定过滤与聚合操作,企业应用则追求稳定通用计算支持。单一通用

CPU

架构难以以最优能效应对所有场景

,“用最佳工具做最佳事”的架构理念应运而生。能效瓶颈倒逼技术迭代:数据中心功耗与碳排放压力持续增大

,CPU

处理专用任务时能效低下,而专用加速器通过精简架构、针对性优化,能以更高能效比完成任务

,推动算力部署从

“CPU

主导”

转向

“xPU多算力混合部署”。算力调度走向精准匹配:通用计算由

CPU

承载

,AI

训练依托

GPU/NPU的并行计算优势

,推理优先采用低成本

ASIC。通过统一调度计算节点内的异构资源

,结合上层业务负载特征匹配最优底层算力

,实现资源利用率最大化。从CPU为中心的架构,走向平等新型计算架构,形成统一的计算、通信、调度、协同的计算体系架构-

24

-新架构以

“高速互联总线”

为核心,取代

CPU

成为算力协同的枢纽,构建起统一调度、高效协同的计算体系

,彻底打破传统主从架构的瓶颈。传统主从架构的局限:以

CPU

为绝对中心,所有数据需经

CPU内存子系统中转

,大量

CPU

周期与内存带宽被消耗

,导致

CPU

成为性能与延迟瓶颈,无法适配高并发、多样化计算需求。这一现状倒逼计算架构向协同化方向演进,单纯提升单个计算单元性能已无法解决效率与成本的平衡问题,唯有通过大规模计算单元的协同调度,优化算力分配与资源利用效率,才能从根本上降低

AI

模型运营的综合成本。平等架构的核心特征:

以高速互联总线连接

CPU、

内存、存储及各类加速器,形成资源池化的分布式系统。各计算单元地位平等,支持异构计算单元高效互连、内存池化访问、资源动态分配与高可靠传输,大幅提升系统灵活性、扩展性与资源利用效率。资源池化的核心价值:将CPU、xPU、内存、存储等硬件资源分类为独立

“资源池”,摆脱单台服务器的专属限制

,实现抽象化、共享化管理。计算任务可按需从不同资源池组合算力、存储与内存

,动态适配多元负载需求。算力的发展路线多样化多样化计算需求推动算力发展路径分化

,通用计算与专用加速器形成互补,共同支撑算力生态升级。-

25

-通用计算领域:ARM

架构崛起成为全球通算领域主流力量。其从移动场景成功拓展至数据中心,凭借开放授权模式(指令集、软核、硬核授权),获得

AWS、谷歌Cloud、微软Azure、阿里云、华为云等大型云服务商及政企用户青睐

,实

现降本增效。据预测,ARM

在中国整体市场份额超

30%,国计民生领域占比高

60%以上

,未来仍将保持高速增长。带加速器的AI服务器中

,ARM架构已

经超过50%

,CPU与GPU的协同设计显著提升异构算力效能

,使ARM在智算

中心渐成主流。专用加速器领域:GPU

与NPU/ASIC呈现差异化发展。GPU

依托大规模并行处理能力

,成为

AI

训练与高性能计算的主力

,通过Chiplet、CoWoS

等先进封装技术提升算力密度

,借助NVLink

等高速互联技术协同优化大规模任

务效率。NPU/ASIC

走专用化路线,为

AI

推理、视觉处理等场景定制算法硬件

,虽灵活性不及通用芯片,但能效比优势显著

——

专用

AI

推理

ASIC的能效比

可达传统

CPU的10

倍以上

,成为边缘计算等功耗敏感场景的核心选择。价值链转移

,CPU被弱化

,GPU/NPU/ASIC加速器重要性凸显

,价值链扩散化计算架构变革推动产业价值链重构

,CPU的核心地位弱化

,专用加速器与系统级解决方案的价值凸显。市场份额此消彼长

:2023年CPU在AI数据中心处理器市场的份额为20.5%

,预计到

2030年

,CPU(x86+ARM

架构)

在数据中心半导体总支出中

的占比将降至10%

,而GPU/AI

加速器占比将升至60%

,成为算力核心支柱。价值链全面扩散:产业价值从单一CPU硬件

向系统设计、互联技术、异

构软件栈、编译器工具、云服务等上下游延伸。能够提供“硬件

+

软件

+系统”-

26

-完整解决方案的厂商

,将在行业竞争中占据主导地位。计算架构的范式变革,本质是算力供给对多样化需求的精准响应。从

“CPU为中心的层级架构”

“高速互连为核心的平等架构”,不仅是技术形态的升级,更是算力价值释放模式的重构,将为数字经济发展提供更高效、灵活、可持续的算力支撑。-

27

-趋势六:

以网强算

建设毫秒级算力网

强化算力基础设施高质量发展-

28

-随着AI大模型、工业互联网、

自动驾驶等新一代信息技术的迅猛发展

,算力需求正以前所未有的速度和规模爆发。传统的以大型、集中式数据中心为核心的算力供给模式

,在面对海量数据实时处理、超低时延交互等新兴业务场景时

,日益显现出瓶颈。算力需求暴涨与资源错配的矛盾预计2025年中国智能算力规模将达1037EFLOPS,同比增长超40%,呈现出指数增长的趋势,但也带来了一定的供需矛盾。东部地区承载了全国近六成的算力需求,但面临能耗指标紧张、电力成本高企的压力;而西部地区虽拥有丰富的绿色能源禀赋,本地算力需求相对有限,其清洁能源潜力尚未充分转化为算力供给优势。以大规模集中式数据中心为代表的传统算力供给模式,在应对高并发、超低时延、强交互的新型业务场景(如具身智能物理交互、工业互联网多模态协同等)时

,已日益暴露出系统性瓶颈。

物理极限挑战:单一数据中心在能耗、散热、组网规模等方面逼近天花板;

跨域协同效率低下:跨地域、集群的算力资源难以实现高效调度与任务协同;

网络传输损耗显著:仅0.1%的网络丢包率即可导致算力效率下降约50%

,成为低时延业务的关键瓶颈为破解算力资源的结构性错配

,我国自2022年起启动“

东数西算”国家战略工程

,并于2024年加速推进全国一体化算力网建设。其核心路径是通过构建“云—网—边—端”协同的算力调度体系

,将东部算力需求有序引导至西部可再生能源富集区域

,实现跨区域算力资源的统筹调度与高效利用。毫秒用算

,在全国范围内梯次推进毫秒用算网络建设-

29

-根据工信部发布的《深入实施“

东数西算”工程加快构建全国一体化算力网的实施意见》等政策文件

,定义了不同地理范围内的端到端算力服务时延圈,

,到2027年基本形成全域覆盖、高效畅通的城域毫秒用算网络能力体系。

1ms城市算力网:在城市(或重点区域)内部

,实现任意终端到最优算力节点的时延在1毫秒以内。主要通过在城域内部署边缘计算节点实现,满足自动驾驶、车联网、超高清视频等极端时延敏感业务的需求。

5ms区域算力网:在省内或区域(如长三角、京津冀)范围内,实现跨城市、跨数据中心间的算力协同和数据交互时延在

5

毫秒以内。适用于工业互联网、区域性AI推理、云游戏等场景。

20ms国家枢纽节点算力网:在国家“

东数西算”

的八大枢纽之间

,实现非实时性、大吞吐量的算力任务(如AI模型训练、大数据分析、离线渲染等)的协同

,力求将时延控制在20毫秒左右。运营商成为主力军:中国三大电信运营商正积极转型为算网服务提供商,并取得了显著进展。

中国移动率先启动“1-5-20毫秒”三级时延圈的覆盖,并发布了全球首个算力路由器

,可将端到端平均时延降低15%

。-

30

-

中国电信积极建设天翼云“一云多态”算力体系,通过优化网络,其八大枢纽间的平均时延已降低7%

向“毫秒级访问计算”迈进

中国联通的智能算力规模已超过10EFLOPS,为低时延、大带宽应用提供网络保障

。以网强算

,构建算网一体的新型基础设施“以网强算”,通过构建具备超大带宽、超低时延、智能感知和灵活调度能力的新型网络基础设施,将地理上分散、架构上异构的算力资源(通用算力、智算、超算)连接成一个逻辑上统一、高效协同的“超级计算机”,从而强化算力的服务能力和使用效率

。其核心架构是“算、网、脑”一体化架构

,依赖于“算力资源”、“

网络连接”与“编排调度”三者的紧密协同。

算力资源是基础。从国家枢纽节点、区域数据中心

,到城域边缘、乃至用户终端的各类异构计算资源。通过容器化、虚拟化等技术对算力进行标准化封装

,使其成为可被调度的基本单元。

网络是连接的动脉。不再是简单的“管道”

,而是具备“计算感知”能力的新型网络。通过引入网络切片(NetworkSlicing)、

全光网络(All-OpticalNetwork)、确定性网络等技术

,为不同的算力任务提供SLA(服务等级协议)保障的差异化连接服务

编排调度是智慧的大脑。对全网的算力、存储、网络资源进行统一视图的监控和管理。基于

AI驱动的智能调度算法(AI-drivenScheduling)

,实时感知业务需求(如所需算力类型、时延要求等)和全网资源状态

,动态计算并执行最优的“算力路由”

,实现任务与资源在毫秒级的最佳匹配。-

31

-鹏城实验室基于算力网开发的算力调度系统,开发协同调度系统统一算力使用标准,在不同算力生态间构建一套统一完备的规范标准,做到“跨系统”对话。算力互联互通

随需即取即用

,算力成为可交易的生产要素算力网络通过统一纳管、调度和交易,让算力像电力、互联网一样成为普惠性基础设施,实现应用与数据在算力资源间的高效匹配、流动互通。算力互联互通的终极目标

,是构建

“算力网络”(ComputeNetwork)

:将分散的

“算力孤岛”

连接为统一资源池

,通过算网云调度操作系统与高性能传输协议

,实现算力的智能感知、实时发现、随需获取,让用户无需关心算力来源与芯片类型,通过标准化

API

即可

“即取即用”。工信部于2025年10月21

日发布《算力标准体系建设指南(2025版)

》征求意见稿

,其核心目标是到2027年

,围绕基础通用、算力设施、设备、算网融合、互联、平台、应用、安全及绿色低碳九大领域制修订50项以上标准

,并推动超过500家企业开展标准应用。

旨在通过统一标准构建全国一体化算力网,解决算力资源分布不均、“算力孤岛”等问题,提升资源利用效率,强化产业竞-

32

-争力。未来,算力基础设施将朝着“云-

网-边-端”协同、存算一体、智能调度的方向发展,通过构建无处不在的智能算网,实现算力资源的高效流动与全局优化。-

33

-趋势七:

超算与智算走向融合

构筑科学计算新范式-

34

-应对气候变化、探索可控核聚变、研发新药等前沿挑战,正推动计算需求向“高精度科学模拟

+

高效

AI

处理”

的复合形态演进。单一超算或智算架构已难以承载多元诉求

,超算(HPC)

与智算(AIComputing)

从独立发展走向深度融合,形成

“超智融合”

新范式

,实现从芯片到系统、从软件到应用的全方位协同

,成为解决复杂计算问题的核心支撑。需求、成本、效率三重因素倒逼超算和智算走向融合超智融合的兴起,是计算需求多元化、成本控制刚性化、资源利用高效化共同作用的必然结果。计算需求日趋多元:传统超算擅长FP64高精度浮点运算,适配科学模拟;智算聚焦FP16/INT8低精度高吞吐量计算

,支撑AI训练与推理。“AI

forScience”

等场景需要混合精度计算,例如气候模拟既需超算的气象动力学建模,又需智算的卫星数据模式识别

,单一架构无法满足。成本与资源优化诉求:超算与智算分离部署导致资源浪费、效率低下,融合架构通过统一资源管理、智能调度与高效通信,可降低算力成本

20%-40%,减少能耗15%-30%

,实现可持续算力供给。科研与产业效率提升:融合架构能打通

“AI

筛选

+

科学验证”的全流程,例如生物医药领域

,AI

从亿级分子中快速筛选候选药物

,超算通过分子动力学模拟验证结合效果

,将原本数年的研发周期缩短至数天。-

35

-超智融合呈现清晰的三阶段演进逻辑,当前正处于从第一阶段向第二阶段过渡、前瞻布局第三阶段的关键时期

赋能

AI阶段:以超算强大算力为支撑,提升

AI

大模型训练效率与可信度,突破大规模模型参数训练的算力瓶颈。

借力

AI阶段:将

AI

技术融入超算系统

,通过智能调度、故障预判等优化超算运行效率

,让计算系统更具适应性。

融合

AI

阶段:AI

成为计算系统的核心组件,超算与智算实现内生协同,形成

“AI

驱动科学模拟、科学数据反哺

AI

优化”

的闭环,成为融合形态的终极方向。超智融合是全链条技术架构的深度协同超智融合并非简单的硬件叠加

,而是覆盖硬件、软件、系统的体系化重构,构建

“异构协同、统一调度、灵活适配”的计算生态。

硬件架构:全精度算力芯片

+

高速互联核心是实现CPU+GPU/NPU

等异构处理器的物理高速互联与逻辑统一管理。通用全精度高算力芯片成为核心硬件

,支持从FP64到INT8的全精度计算,让同一系统既能承载科学模拟,又能运行

AI

任务;通过

Chiplet、CoWoS等先进封装技术提升算力密度,依托NVLink、Infiniband

等高速互联技术,保障异构芯片间的低时延通信。

软件体系:统一栈

+

兼容适配构建覆盖编程、编译、调度的统一软件栈:编程模型实现标准化,支持同一应用一次编译适配不同硬件,CUDA、ROCm

兼容HPC(MPI+OpenMP)与

AI

(PyTorch、TensorFlow)框架;负载调度器(如

Slurm)扩展支持容器化

AI-

36

-任务

,实现资源动态分配

,打破超算与智算的调度壁垒。

系统层面:资源池化

+

智能调度通过统一资源管理平台,将异构算力、存储、数据、模型等抽象为共享资源池,根据任务特征动态匹配最优计算资源。如针对混合精度任务

,自动分配高精度算力用于科学计算、低精度算力用于

AI

处理,实现“按需分配、极致利用”。

应用价值:赋能千行百业突破效率边界

超智融合已在多个关键领域落地,通过

“AI+

超算”

的协同优势,破解传统技术难以解决的效率瓶颈。

气候气象领域:短临预报耗时从

6

小时缩短至1

小时,提升灾害预警响应速度。

能源勘探领域:AI

分析地震波数据勾勒地质构造

,超算通过流体力学模拟优化开采策略

,降低勘探成本。

生物医药领域:上海药物所借助超智融合,加速科技成果转化与知识边界拓宽

,推动新药研发进程。 基础科研领域:

为可控核聚变、人脑奥秘探索等提供

“AI

建模

+

科学验证”的全流程支持

,开辟新研究路径。-

37

-超智融合不仅重构技术架构

,更推动算力服务商业模式的变革传统以硬件销售为主的模式逐渐退场

,转向

“服务化、定制化”

:云服务商推出“三算合一”产品,将通用算力、超算算力、智算算力整合为统一服务,

AWS、阿里云等提供融合计算实例;公有云凭借弹性优势、丰富

AI

服务与快速迭代的硬件

,成为

“AIforScience”的核心试验场

,谷歌、Azure

等通过自研芯片(TPU、Graviton)

与融合实例

,深度参与并引领这一趋势。-

38

-趋势八:

智算时代需要更加开源开放的生态体系

加速产业创新-

39

-智算时代的产业链呈现

“基础层高门槛、技术层重创新、应用层广覆盖”的复杂特征,单一厂商难以独立满足全场景创新需求。开源开放成为聚合全球力量、打破技术壁垒的核心路径

,而算力互联互通则推动分散算力转化为社会级服务

,两者共同构建起智算产业可持续发展的生态体系。开源开放一直是驱动AI产业发展的动力AI

产业链的分层特性

,决定了开源开放是实现协同创新、加速产业规模化的必然选择。基础层(AI

芯片、算力设施、数据平台)需长期技术积累与巨额资本投入,技术层(算法模型、机器学习框架)依赖顶尖人才与理论突破,应用层则要求深度理解垂直领域业务流程。三层需求的差异化与复杂性,使得任何单一主体都无法包揽全链条创新

,必须通过开源开放实现资源共享、能力互补。开源开放的核心价值在于

降门槛、促协同、破垄断”

:通过共享算法框架、模型权重、工具组件,让中小企业、科研机构及个体开发者无需重复投入即可参与前沿研发;全球开发者在开源社区协作优化

,加速技术迭代与场景适配

,形成“底层突破

上层落地”

的良性循环;避免少数巨头的技术垄断与“厂商锁定”

,保障产业创新活力。计算产业头部厂商通过开源开放引领AI技术发展开源开放已成为头部厂商主导产业格局的核心手段,通过技术共享与生态共建

,放大自身优势并推动产业协同。阿里Qwen、

DeepSeek、

MetaLLaMA选择开源

,其深层次原因均超越了单纯的技术分享,是服务于各自核心商业战略与生态构建的精准决策,其本质上是互联网“

引流+变现”商业模式在AI时代的延续。-

40

-Qwen系列模型全球下载量突破6亿次

,衍生模型超17万个

,并直接带动阿里云AI相关收入连续多个季度实现三位数增长。DeepSeek的开源开放战略是全球人工智能发展范式的一次重要转向,通过“全栈开源”打破技术垄断

,不仅开放从7B到671B参数的全系列模型权重

,更公开了训练框架、数据工具链等核心技术,构建了从芯片适配、云平台部署到行业应用的全链路生态协同。推动AI技术从“算力军备竞赛”

向“算法-架构-生态”协同创新的高阶形态演进。Meta开源

LLaMA是其在不具备云服务等直接变现渠道的背景下

,打破由OpenAI等闭源模型主导的市场格局的“破局”策略。通过开放顶级模型

,Meta旨在激发全球开发者生态

,降低AI应用门槛。英伟达以

闭源核心

+

开源生态”

模式构建壁垒:CUDA

核心技术保持

专有,同时开源CUDA-X

库、RAPIDS

数据处理套件等,让开发者充分释放GPU潜力

,间接锁定硬件选型偏好。华为昇腾则走全栈开源开放路线,2025

8

月宣布硬件使能

CANN

全面开源

,通过分层解耦架构覆盖全场景开发者需求:基础层开源190+

运行时接口

,满足高性能计算爱好者的细粒度调用需求;算子层提供

AscendC

编程语

言与CATLASS

模板库,兼顾性能与开发效率;框架层深度兼容

Triton、PyTorch、

vLLM

等主流开源项目

,降低生态迁移成本。-

41

-开源开放不是

“技术免费”,而是通过生态聚合实现

“技术增值”,让核心技术通过广泛应用沉淀为产业标准。未来采用异构算力芯片

,构建异构化智算中心成为常态要实现算力最大化

,对这些异构资源进行协同优化。

不同厂商的芯片(如GPU、

FPGA、ASIC)

在硬件架构、指令集、软件栈(包括驱动、通信库)

上差异巨大,导致它们如同使用不同语言的团队,难以直接协作。通过构建统一的软件抽象层、实现高效的互联通信并进行智能的任务调度,才能将不同厂商芯片的差异化优势转化为强大的综合算力。为了统一异构算力的调度,OpenCL协同通信库为种类繁多的计算设备(如

CPU、GPU、

FPGA

等)提供了一套统一的编程模型,让开发者能够高效地利用这些设备的并行计算能力,并实现它们之间的协同工作。-

42

-趋势九:

算力中心向智算中心迈进

高密化、

液冷化和集群化成为发展方向

能源成为关键要素-

43

-站在2025年的时间节点回望

,过去数年是算力基础设施经历代际变革的关键时期。在生成式人工智能(Generative

AI)和大语言模型(LLM)等颠覆性技术浪潮的驱动下

,传统的数据中心(DataCenter)

正以前所未有的速度向智能算力中心(AIDC,

AIDataCenter)

演进。算力需求与政策约束双重倒逼

AIDC

升级算力需求呈指数级爆发:GPT-5的训练标志着人工智能行业进入万卡集群与千兆瓦级能耗的新时代,其算力需求呈现指数级跃增。据行业分析,完成一次完整的GPT-5训练需消耗20万至30万张

H100GPU,以

H100为基准计算,总算力需求约为GPT-4的25至100倍。在时间成本上,单次训练周期预计持续4到6个月

,而仅计算硬件消耗

,单次训练成本已突破5亿美元。企业端

,字节跳动2025

AI

相关资本开支同比激增

386%

,火山引擎算力调用量达12.7

万亿

tokens/日

,较2024年底增长3倍

,推动

AIDC从百兆瓦级向吉瓦级跨越。政策与成本刚性约束:全球

“双碳”目标下

中国要求2025年底新建超大型数据中心PUE降至1.25以内

,国家枢纽节点项目不高于1.2;欧盟规定

2030

年新建数据中心PUE

低于1.2。成本层面,中国数据中心耗电量占全国总用电量

3~5%

电费占运营成本比重高达

70%

,绿色低碳已成为企业降本增效的核心诉求。能源消耗的量级

,从兆瓦(MW)

到吉瓦(GW)

的跨越算力需求从

“一次性训练”

转向

“持续性推理”

:万亿参数大模型单次训练耗电量堪比中型城市全年用电,而

AI

应用从云端向边缘扩展,进一步放大-

44

-总体算力消耗。据相关预测

,2030

年全球数据中心电力需求较

2023

年增长175%

,相当于新增一个全球前10

大电力消费国;相关数据显示

中国

AI

数据中心IT能耗2025

年将达

77.7TWh

,2027

年有望突破146.2TWh。集群化部署的规模效应:为降低延迟、摊薄成本,技术巨头纷纷打造

“AI

工厂”,10

万张高端智算卡的超大型

AIDC

核心IT设备电力需求已超100MW,百万张加速卡级集群的单体电力需求迈向

GW

级成为必然。芯片功耗持续攀升:

NVIDIAH100/B200、华为昇腾等旗舰AI

芯片

,单卡功耗从

300-400W

跃升至

700W以上

,部分型号突破1000W;机柜功率密度从传统几千瓦飙升至

50kW-100kW

,推高

AIDC

能耗基线

,传统技术已难以适配。高密化

——

机柜功率密度跨越式提升AIDC

彻底重构了机柜功率密度标准

,从传统

“低密分散”

转向

高密集成”

,催生硬件形态创新。传统数据中心单机柜功率密度普遍在10kW以下,而

AIDC已迈入全新量级:2025年NVIDIAGB200NVL72等平台规模化部署,单机柜功率达132kW;

2026

年NVL144预计突破303kW

,2027年NVL576预估达650kW

,部分-

45

-极端场景甚至冲击150kW-200kW。高密化并非简单的硬件堆砌,而是带动OAM(OCP

AcceleratorModule)、整机柜服务器等新型硬件形态兴起。通过优化内部结构、供电与散热设计,将数十个

GPU

加速器、CPU

及高速网络接口紧密集成,形成高度整合的计算单元,最大化单机柜算力产出。智算功率持续攀升

,数据中心机柜走向高密、超高密。液冷化

——

高密散热的必然选择风冷技术已无法满足

AIDC

高密设备的散热需求

,液冷技术从备选升级为“标配”

,风液混合制冷成为主流模式。AIDC

单机柜功率密度普遍在

20kW-100kW,远超传统数据中心

3kW-8kW的水平,传统风冷散热效率不足,易导致芯片过热降频。液冷技术凭借液体(水或专用冷却液)数千倍于空气的导热效率,成为高效散热核心方案,可使PUE降至1.05-1.15

,较传统风冷节能

30%-50%。当前液冷技术形成两大主流路径:一是冷板式液冷,通过在

CPU、GPU

等核心发热部件安装带流道的金属冷板,直接传导热量,技术成熟且应用广泛;二是浸没式液冷,将服务器或发热部件完全浸泡在不导电冷却液中,通过相变或自然对流散热

,散热效率最优

,适配极致高密场景。-

46

-风冷难满足AI高密设备散热需求

,风液混合制冷成为主流模式。集群化

——

协同优化释放规模化算力AI

大模型训练的复杂性,决定了集群化是

AIDC

发挥效能的核心组织形式,从

“硬件叠加”

走向

系统协同”。单台服务器无法承载千亿参数模型的训练任务

,必须依赖成千上万个

GPU组成的计算集群协同工作。AIDC

集群的核心价值在于

1+1>2”,需以系统级

思维统筹计算、存储、网络、软件调度及供电、散热的全盘协同

,而非单一硬件

性能的简单叠加。能否高效组织并调度如此庞大的资源

,将成为决定大模型竞争格局的关键。据分析,GPT-6的参数规模可能达到百万亿级别,训练所需token量或将跃升至

数百万亿

,这使得其总算力需求可能达到GPT-4的千倍以上。组织“

百万卡”

级别的AI训练

,已非单一算力单元的简单叠加

,需要构建超大规模计算集群。集群化要求基础设施具备弹性部署能力

以应对

AI

业务增长的不确定性。通过存算分离、智能运维等技术突破

,实现资源动态调度与高效协同

,支撑GW

级AIDC的规模化部署

,为超大规模模型训练与推理提供稳定算力保障。算电协同

,绿色电力应对

AI数据中心能耗激增AI尽头是能源

,绿色电力

,与算力协同发展是必然。风光电直供零碳数据中心,正成为破解算力爆发式增长与能源约束矛盾的关

键路径。其核心是通过在风光资源富集地区(如青海、内蒙古)就近建设智算基

础设施

,构建“绿电-微电网-智算中心”一体化的融合架构

,实现新能源电力的

就地生产、就地消纳。这种模式摒弃了传统“发电-升压-远距离输电-降压-用电”的复杂环节

,通过微电网直连

,大幅减少输电损耗和基础设施成本。-

47

-据测算

,此举可使数据中心电费成本下降约50%。

同时

,为匹配新能源的间歇性特征,智算中心需深度融合冷板液冷、间接蒸发冷却等先进散热技术,并引入构网型储能确保供电稳定

,将PUE(电源使用效率)持续优化至1.1以下。这不仅使算力成本得以大幅降低,更标志着“绿电”驱动“绿算”的可持续发展新模式正式落地,为未来智能世界的万亿级算力需求提供了绿色、经济的能源基座。-

48

-趋势十:量子计算走向工程化阶段,未来1-2

年将是量子计算从技术突破走向商业化应用的关键窗口期-

49

-量子计算进展迅速

,从科学愿景逐步商业落地主流研究从单纯追求量子比特数量,转向“规模与质量并进”。加州理工学院的中性原子系统达到6100量子比特规模

,展现出强大的扩展潜力。2025年是从物理量子比特迈向逻辑量子比特的转折点。逻辑量子比特通过纠错编码构建,错误率远低于物理比特,是实现可靠计算的核心。谷歌“Willow”芯片实现105个量子比特,错误率显著降低,突破纠错关键阈值,标志容错量子计算已见曙光。在具有商业或科学价值的实际问题上,量子计算机能够提供比现有最先进的经典计算机更优(更快、更准或成本更低)

的解决方案。金融、制药、物流、材料等行业的头部企业,已从早期探索量子计算转为深度合作,开展具有明确业务导向的概念验证

,并初步收获量化收益。量子计算是一种遵循量子力学规律调控量子信息单元(Qubit)

进行计算的新型计算模式,其基本信息单元是量子比特,通过量子叠加与纠缠特性实现高效并行计算。量子计算在原理上具

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论