人工智能行业市场前景及投资研究报告:新模型趋势AI产业投资_第1页
人工智能行业市场前景及投资研究报告:新模型趋势AI产业投资_第2页
人工智能行业市场前景及投资研究报告:新模型趋势AI产业投资_第3页
人工智能行业市场前景及投资研究报告:新模型趋势AI产业投资_第4页
人工智能行业市场前景及投资研究报告:新模型趋势AI产业投资_第5页
已阅读5页,还剩35页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

研究报告

行业动态报告新模型趋势下的AI产业投资如何做?核心观点Gpt出现至今3年多,大模型演进可以概括为三条主线:1)技术范式从“暴力扩容”(Scaling

Law)转向“深度推理”;2)产品形态从Chatbot走向Agent;3)产业格局从“百模混战”收敛为头部梯队+国产效率(开源)路线突围;4)使用习惯从“主动”走向“自动”。2026年,模型能力会持续增强,同时会带来Agent+多模态市场的加速成长期和Token指数级增加的消耗期。2026年,AI产业投资的三维度:模式角度:更长的上下文与记忆能力突破和更强的自主思考、反思、创造的能力;算力角度:从“算力普惠”到“算力通胀”;应用角度:找到收入快速增长的场景2目录CONTENTS1、模型如何演变?2、模型公司商业模式变化?3、如何总结2025年的AI行业?4、预测2026年AI行业发展?5、投资建议与风险提示2

3

-25年模型行业发展总结:从“暴力”走向“效率”,从混战到收敛Gpt出现至今3年多,大模型演进可以概括为三条主线:1)技术范式从“暴力扩容”(Scaling

Law)转向“深度推理”;2)产品形态从Chatbot走向Agent;3)产业格局从“百模混战”收敛为头部梯队+国产效率(开源)路线突围;4)使用习惯从“主动”走向“自动”。2023年是典型的Scaling

Law红利期,全球与国内厂商围绕Transformer架构“堆参数、砸算力”,国内出现大规模“百模大战”,应用以文本Chatbot为主;2024年多模态的出现与长上下文成为重点,OpenAI

o1等推理模型标志着从“预训练Scaling

Law”向“推理Scaling

Law”的范式转换;2025年“深度推理+Agent”成为主线,强化学习、RLVR等技术让模型在数学、代码等可验证任务上显著进步,AI

Agent被多方一致判断为商业化落地重要形态,2026年面对更快速的模型能力提升,以Agent、AI长视频等为代表的AI应用元年即将来到。此外,从早期模型输出结果依赖提示词,到25年下半年开始出现Agent自动处理数据,再到26年初openclaw的出圈,模型使用走向自动化阶段。竞争格局方面,国内外都呈现从“混战”到收敛的状态。海外形成OpenAI、Google、Anthropic、xAI等持续迭代的“性能军备竞赛”,国内则由2023年的“百模大战”快速收敛为CBDG生态驱动下的头部梯队+“七雄争霸”。以DeepSeek为代表的国产效率路线在2024-2025年通过MoE架构与强化学习,在大幅降低成本的同时,将推理能力逼近甚至对标海外闭源旗舰,成为全球AI成本与效率的新标杆。国内大模型从“像素级追赶”转向“差异化超越”:一端是互联网/科技巨头构建全栈生态,另一端是智谱、MiniMax、Kimi等全栈独角兽与DeepSeek的高效开源路线,市场进入体系化竞争+多梯队格局。图:主流AI模型迭代历程4:

ra模型2025:从参数规模竞赛到推理与多模态的深度跨越进入2025年,大模型技术演进已明显从“单一参数规模扩张”切换到“架构效率+推理能力+多模态+长上下文”的综合竞赛,Scaling

Law并未失效,但从“预训练算力堆砌”走向“后训练与推理阶段的算力重构”。MoE(混合专家)与各类混合架构成为扩展模型容量同时控制成本的主流路径,长上下文与多模态能力成为模型基础能力“新标配”,而以DeepSeek-R1/V3、Qwen3、GPT-5、Gemini

3pro等为代表的推理型模型则通过在推理阶段“多花时间、多花算力”显著提升模型在数学、代码和复杂逻辑任务上的表现。Scaling

Law的有效性从“堆参数”转向“提能力密度”。从GPT-3到GPT-4,参数量从1750亿提升到约1.8万亿,对应训练数据从0.3万亿扩展至13万亿,性能实现阶跃式提升。然而,近两年边际变化非常明显:1)参数增量收敛:最新一代GPT-5参数约为2万亿,与GPT-4处于同一数量级,表明“单纯扩大参数规模”的收益在减弱;2)数据与算力约束强化:高质量互联网文本接近“被榨干”,继续按Chinchilla最优策略扩展数据规模难度增大,训练FLOPs已达到10^25级别,继续线性放大训练预算在工程上难以持续。上述两个约束推进行业正在向“后训练Scaling

Law”和“推理阶段Scaling

Law”迁移,即在参数不再指数增长的前提下,通过更高质量数据、强化学习与推理阶段增加计算量,继续沿着幂律曲线推动能力涌现。长文本成为模型演进与能力的核心体现之一。从2018年前后BERT/GPT-2的2K–8K

token上下文,到2024–2025年主流模型普遍支持128K+乃至百万级上下文,长文本能力成为模型能力的核心体现之一。长上下文的意义不只在于“把整本书塞进去”:a)提示工程与工具使用上限显著抬升:可在一次调用中携带完整任务链路、多轮对话历史和复杂结构化信息,为Agent、复杂编程与企业工作流提供基础记忆空间;b)与记忆和个性化深度绑定:长上下文被视作模型的“工作记忆”,与用户长期偏好和任务历史结合,有助于构建真正“会记住你”的智能体。多模态成为迈向“统一的感知-认知底座”,原生多模态推进产业工程化发展。2025年开始多模态从“体验增强功能”升级为大模型的标准能力维度,多数模型已升级为多模态模型,数据处理范围已从自然语言处理拓展到图像、音频、视频在内的多模态理解与生成,并在语音对话、摄像头实时交互等使用场景快速普及。一些原生多模态模型,如Gemini

3、豆包2.0等,形成“感知-理解-决策”的闭环能力,让AI首次具备了处理真实世界复杂信息的能力。视频生成类的模型产品也在迭代提升工程能力。5模型2025:加速,

迭代速度越来越快2025年模型迭代加速,本质是后训练技术的贡献过去被严重低估。OpenAI的o系列模型开启了推理革命,DeepSeek-R1迅速跟进并开源,验证了长思维链与纯强化学习在模型推理能力上的质变效应——过去的研究认为模型能力主要来自预训练规模,且该路径已受到数据稀缺与边际收益递减限制,而新的研究发现70%到90%的实际能力源于RLHF等后训练优化,DeepSeek-R1更是跳过监督微调,仅靠纯强化学习在数学推理上达到79.8%的准确率。性能方面,据中国信通院测试结果,截止2025年12月,头部语言大模型的综合能力较2024年底提升30%,多模态理解能力提升超过50%,但模型间的能力差距则进一步缩小。图:中国信通院方升大模型基准测试结果资料:中国信通院,中信建投图:海外模型更新时间表资料OpenAI,xAI,Google,Anthropic,中信建投6模型2025:加速,迭代速度越来越快2026年,模型的迭代进一步加速,截至2月20日各大厂已发布20余款模型。表:2026年主流AI大厂模型迭代情况模型发布时间公司主要特点SIMA-Real2026/1/1Google

首款能在真实环境中操控机器人完成多步骤任务的通用AI代理。Qwen3-VL-Embedding/Reranker

2026/1/8

阿里巴巴

开源多模态信息检索模型,专为图文、视频等混合内容理解设计。Qwen3-Max-ThinkingKimi

K2.52026/1/26

阿里巴巴

万亿参数旗舰推理模型,在19项基准测试中对标GPT-5.2、Claude-4.5。2026/1/27

Kimi

1万亿参数MoE架构,原生多模态,支持Agent

Swarm并行处理。2026/1/27

DeepSeek

新一代OCR模型,视觉因果流编码范式,网页数字化准确率91.09%。DeepSeek-OCR

2Grok

Imagine

1.0GPT-5.3-CodexClaude

Opus

4.62026/2/22026/2/5xAI视频生成模型,支持10秒720p视频生成,音频质量显著提升。OpenAI

代理式编程模型,编程速度提升25%,结合Codex+GPT-5训练体系。2026/2/5

Anthropic

旗舰模型,稳定100万token上下文窗口,优化企业级并行工具执行。I2V-14B

模型在性能上超越了领先的闭源模型以及所有现有的开源模型,达到了

SOTA

水平。Qwen-Image-2.02026/2/10

阿里巴巴RynnBrain某灰度模型2026/2/10

阿里巴巴

具身智能大脑基础模型,首次让机器人拥有时空记忆和空间推理能力。2026/2/11

DeepSeek

支持100万token超长上下文,约2000亿参数,纯文本架构。GLM-52026/2/11智谱旗舰模型,744B参数,在SWE-bench

Verified获77.8分,开源SOTA。M2.52026/2/11

MiniMax

新一代文本模型,SWE-Bench

Verified得分80.2%,推理速度翻倍。2026/2/12

Google

深度推理模型,专为科研和工程设计,ARC-AGI-2测试84.6%。2026/2/12

OpenAI

研究预览版,超高速编码模型,每秒超1000个token生成速度。2026/2/12

字节跳动

视频生成模型,支持图像、视频、音频、文本四种模态输入。Gemini

3

Deep

ThinkGPT-5.3-Codex-SparkSeedance

2.0Grok

4.22026/2/13xAI多智能体协作系统,四个专业代理并行思考,支持256K+上下文。豆包大模型2.0Qwen3.5-PlusClaude

Sonnet

4.6Gemini

3.1

Pro2026/2/14

字节跳动

多模态模型,数学推理达IMO金牌水平,推理成本降低90%。2026/2/16

阿里巴巴

3970亿参数MoE架构,170亿激活参数,API价格低至0.8元/万Token。2026/2/18

Anthropic

性能接近Opus水平,价格仅为旗舰五分之一,推动AI普惠化。2026/2/20

Google

最新升级,在ARC-AGI-2测试中获77.1%高分,支持100万Token上下文。资料:各官网、中信建投整理7模型2025:缩圈,挖掘核心客户需求2025年大模型玩家缩圈,竞争已从基模能力转入垂直壁垒。

2025年以来,大模型研发的算力、数据、人才等高昂门槛导致市场格局剧烈收敛,基座模型研发活跃的玩家显著减少。目前第一梯队玩家包括海外的OpenAI、Google、Anthropic、xAI等,国内则聚焦于阿里、字节、DeepSeek、Kimi、MiniMax、智谱,且多选择进行开源。同时,头部厂商的旗舰模型与其他跟随者已形成显著的能力代差,马太效应加剧。就侧重方向而言,OpenAI与阿里巴巴正依托ChatGPT和千问全力构建超级入口,前者积极接入各家厂商,后者则依托自有生态产品构建闭环;Anthropic与Kimi都注重智能体布局,Anthropic围绕Agent构建了定义、协议、测评、安全全体系,Kimi

2.5的Swarm(智能体集群协作)同样反映其对Agent的重视;Google与字节跳动则在多模态能力上布局较深,并将其深度融入全栈技术和内容生态;DeepSeek与xAI分别代表了追求极致性价比与崇尚工程快速迭代(马斯克承诺Grok

4.2每周更新)两种鲜明技术路线。其余厂商如MiniMax与智谱,则精准卡位C端娱乐与自主可控的政企市场。图:主流AI大厂前沿模型智能水平资料:ArtificialAnalysis,中信建投8目录CONTENTS1、模型如何演变?2、模型公司商业模式变化?3、如何总结2025年的AI行业?4、预测2026年AI行业发展?5、投资建议与风险提示商业模式:定制化项目+API订阅的“双轨结构”正在改变2023-2025,国内AI大模型商业化主要呈现出“55%定制化、本地化交付+40–45%

API及订阅”的双轨结构:定制化模式(约55%):以本地化部署、软硬件一体的项目制交付为主,约80%收入来自B端党政、金融、能源、工业等大中型机构客户,典型方式是在客户自有机房或专属云上部署大模型平台,结合行业知识进行预训练与微调;API及订阅模式(约40–45%):通过SaaS、PaaS、MaaS形态对外提供模型能力,按Token、调用次数、时间计费,更适合电商、医疗、教育等中小型用户和开发者;广告模式占比不足5%,主要嵌入智能终端或APP场景,通过免费使用+广告变现的形式服务大规模C端用户。这一阶段的业务逻辑非常清晰:模型=“算力+算法”能力包,通过接口或项目交付售卖,核心KPI是累计签约项目数、API调用量、Token消耗和毛利率。海外模型,则多数以API及订阅为主要收入结构,如Open

AI

2024年H1收入中75%来自订阅和API。10商业模式:定制化项目+API订阅的“双轨结构”正在改变随着模型厂商进入跑马圈地的时段,API价格战的兴起,让单一API/MaaS模式的局限被迅速放大:1)价格与性能高度可比,接口快速商品化国内外大模型厂商在同一基准测试上的性能差距不断收窄,中国头部模型在综合性能榜前十中占据五席,且Token综合成本通常较海外模型平均便宜约70%,加剧了价格竞争。此外,国内云厂商多轮降价,例如阿里云在2024年多次下调通义千问API价格,部分长文本模型价格降幅高达97%,将Qwen-Long输入价格降至0.0005元/千Tokens。目前,部分公司如智谱在2026年初宣布GLM

Coding

Plan套餐价格整体上调30%起,侧面反应成本压力。2)存在难以形成用户侧的产品黏性与数据飞轮的情况单纯API调用多作为中间能力被集成到下游应用中,用户认知常停留在终端品牌而非模型层,模型供应商对终端用户数据与业务场景理解有限。预训练扩展法则遇到边际放缓争议,模型能力差异不再随着参数与算力线性放大,头部模型的“性能壁垒”弱化,难以仅靠接口差异形成长期垄断。3)资本开支与盈利周期错配,影响估值稳定性大模型预训练与推理由于算力开支巨大,而API价格下行明显(国外更明显),使得纯MaaS模式短期难以覆盖资本支出与运营成本,特别是采用自建算力集群的厂商。对B端项目依赖度高的公司(如大量本地化部署),虽然2B本地化项目目前毛利率高于API调用,但项目签约节奏不稳、应收账款与现金流波动较大,也压制了估值中枢。因而,“模型即产品(Model-as-Product)”和“模型即生态(Model-as-Platform)”成为2025年前后商业模式升级的核心方向,也是2026年开始需要关注的产业变化点。11OpenAI:致力于打造AI全栈生态围绕ChatGPT打造入口。算力侧,OpenAI与主流云厂商均达成合作;模型侧,尽管不再绝对领先,但GPT仍处于一线梯队;应用侧,依托400万开发者,8亿ChatGPT周活用户,每分钟API处理60亿token的用户基础,OpenAI致力于构造全栈AI生态,将ChatGPT打造为类似微信的超级应用(Apps

SDK对应小程序、Sora对应视频号、浏览器Atlas对应公众号等)。OpenAI还积极接入外部软件,与Etsy、Shopify合作实现ChatGPT内购,与B端软件公司合作实现能力内嵌,与C端产品合作实现功能调用。此外,OpenAI还收购了包括编程工具Windsurf、AI医疗产品Torch、Agent产品OpenClaw在内的系列产品,加速完善AI能力。图:OpenAI全栈AI生态布局资料:中信建投整理12Anthropic:围绕Agent生态全方位布局Cladue模型持续位列全球第一梯队。模型能力自不必说,Claude一直位列全球模型第一梯队,尤其编程能力较为突出,是Cursor等编程工具平台接入的最受欢迎的模型。Anthropic于2025年5月全面开放自有编程工具Claude

Code,目前年化收入已超过

25

亿美元。2026年初以来,

Claude

Code的年化收入翻了一番还多;每周活跃用户数量也翻了一番;企业订阅用户数量增长了四倍,企业用户收入已占

Claude

Code

总收入的一半以上。

此外,Anthropic

2月18日更新Claude

Sonnet

4.6,在编码、长上下文推理、Agent规划、知识型工作、设计,计算机控制等全面升级,Beta阶段还支持1M上下文。从协议、组件到评估,Anthropic加速完善Agent生态。继MCP成为解决大模型与外部数据/工具连接事实标准后,Anthropic进一步发布的Skills功能则标志Agent开发进入模块化组装阶段。其中,MCP解决了协议碎片化问题,使得外部工具更能够以统一的标准接入AI模型,skills则允许开发者将复杂任务逻辑(如PDF处理、品牌设计、SQL优化、合规审查)封装为标准化组件,AI在需要使用其功能时才进行加载,大幅降低复杂Agent功能对长上下文的要求。评估体系则是Agent落地另一重点——有相应的评估体系,才能更好衡量产品迭代的效果。Anthropic于1月9日公开了其评估框架,该框架构建了代码+模型+人工的三级混合评分体系(其建议尽可能用确定性评分器,必要时加

LLM

评分器,人工评分器用来校准),并在测试策略上严格区分了能力评估(探索新技能)与回归评估(保障存量功能稳定性)。作为在Agent领域相对领先的厂商,Anthropic延续MCP协议、Skills组件后公布其Agent评估体系,一方面试图成为Agent赛道的定义者,另一方面也能够为后续Agent产品实现大规模商业化落地的奠定基础。图:

Claude

Sonnet

4.6重点提升了计算机使用能力图:Agent评估的组成成份资料:机器之心,中信建投13资料:Anthropic,中信建投OpenAI与Anthropic:客户与营收结构差异导致盈利能力差异收入结构差异已凸显,营收差异规模不大。OpenAI

2025

年收入约

130

亿美元、年化收入(ARR)约

120

亿美元+,显著高于

Anthropic

45–50

亿美元收入、50

亿美元

ARR的体量,但在关键的

API

和编程工具板块,Anthropic

已与甚至略领先于

OpenAI:2025

8

Anthropic

API

ARR31

亿美元、Claude

Code

4

亿美元,均高于

OpenAI

对应的

29

亿美元

API、以及OpenAI的编程工具收入并不在表内(主要记在微软的收入中)。收入结构差异在产品战略定位上,即在于“C

App

vs

B

API/企业

SaaS”的选择:OpenAI

收入中约

70–75%

来自

C

端订阅(ChatGPT

Plus

等),企业和

API

相关收入约

25–30

%,典型的“消费者应用公司”;而

Anthropic

80%

收入来自企业客户,70–90%

来自

API

与企业订阅/代码产品,是一家“企业优先、API

优先”的基础模型公司。2B的盈利性更强,2C推理成本仍较高的情况下,盈利能力较B端弱。因而出现OpenAI的营收增速更高但现金消耗巨大、盈利时间后置(预计

2029–2030

年);Anthropic

增速略低但毛利率和单位经济性更优,预计

2027–2028

年现金流转正并率先盈利。后续Agent的收入有望双方下一轮营收加速的催化剂。图:2025

OpenAI

Anthropic

按客户类型收入占比(预测数)资料:中信建投整理14智谱:以B端MaaS+本地化部署为核心的“2B基建派”智谱核心定位是“通用基座大模型+MaaS服务商”,客群高度偏向B端,以“本地化”部署为商业突破口,产品结构上已逐步构建起“基座模型+多模态+AIAgent+代码模型”的全栈矩阵。收入结构:2022–2024年,公司收入年均复合增速超过130%,2025年上半年营收同比增长325%。其中,本地化部署收入占比约85%,云端API收入约15%,本地化占比虽在缓慢下降,但仍主要收入构成。2022–2024年毛利率分别为54.6%、64.6%、56.3%,2025年上半年接近50%,在重资产MaaS模式下仍维持较高毛利,验证了B端MaaS的盈利潜力。模型能力持续提升,Coding成为新主打。GLM-4.x/4.7基座模型在多项权威评测中取得开源模型与国产模型的领先位置,Agentic、Reasoning、Coding三大维度表现优异。多模态模型与AIAgent:GLM-4V、GLM-Image、CogVideoX等覆盖视觉理解、文生图与视频生成,C端AutoGLM和B端CogCo智能体分别面向个人与企业的任务自动化。GLM

Coding

Plan订阅套餐:面向全球开发者推出月费20元起的低价套餐,支持GLM-4.7等旗舰模型在线编码服务,用量上限远高于竞品(如Claude

Code),上线四个月即吸引15万+付费用户,覆盖184个国家,年化经常性收入超过1亿元人民币。整体看,智谱走的是典型的“B端基建派”路径:通过服务央国企、政府等高价值客户的本地化大单,锁定稳定现金流和高毛利;通过MaaS平台和Coding

Plan等云端产品放大规模效应,在推理成本下降的大势中改善单位毛利;同时以开源与“AI出海”为抓手,提升全球开发者渗透率与国际化估值溢价。图:智谱商业模型:MaaS平台图:智谱产品矩阵15资料:智谱招股书、中信建投资料:智谱招股书、中信建投MiniMax:全模态+AI原生应用驱动的“2C全球派”MiniMax核心定位是“C端AI原生产品+全球化”,客群高度偏向C端,以全模态、C端、全球化、原生应用为商业突破口,产品结构上已构建起基于全模态的AI陪伴、视频、音乐等多细分领域的垂直产品,API/MaaS作为增量而非主要收入构成。收入结构:

2023–2025年前三季度按产品划分的营收结构占比中清晰反映出从B端开放平台向C端AI原生产品的重心迁移。2023年:高度依赖开发者与企业服务,开放平台及企业服务占比78.1%,C端应用仅贡献21.9%收入。2024年:C端AI原生应用收入占比提升至71.4%,Talkie/星野贡献63.8%,开放平台及企业服务占比降至28.6%。2025年前三季度:AI原生产品收入占比保持在71.1%,其中Talkie/星野占35.1%、海螺AI占32.6%,开放平台及企业服务占2

8.9%。截至2025年9月,公司已拥有2.12亿个人用户,覆盖200+国家和地区,企业客户来自100多个国家和地区,超过70%的收入来自海外市场。整体看,MimiMax的核心商业逻辑可概括为“模型即产品”:1)技术研发与产品构建深度一体化,面向C端直接把全模态模型封装为可订阅、可内购的成品,而非仅仅输出API能力;2)C端大规模用户行为数据反哺模型迭代,模型能力提升再通过B端开放平台变现,形成“C端数据优化+B端商业落地”的双向飞轮;3)通过订阅+在线营销+虚拟道具+API调用等多元收费模式分散风险,提升整体利润率与可持续性。图:MiniMax

产品矩阵图16资料:MiniMax招股书、中信建投阿里巴巴:自研芯片+开源模型+应用实现国产AI闭环千问开源构建底层模型基础,向上打造自研芯片,向下各事业部积极探索AI布局。至2025年9月,阿里已更新万亿参数大模型Qwen3-Max-Preview、语音识别模型Qwen3-ASE-Flash、MoE效率模型Qwen3-Next-80B-A3B-Instruct/Thinking、企业级端到端语音大模型

FunAudio-ASR

Agent

义DeepResearch、视频动作生成模型Wan2.6等6个模型,并在2025年云栖大会上一次性更新Qwen

Max(万亿参数)、Qwen3-Omni(全模态)、Qwen3-VL(视觉理解)、Qwen-Image-Edit(图像编辑)、Qwen3-Coder(代码)、Wan2.5-Preview(视频生成)、通义百聆(企业级语音基座大模型)等7个模型,合计发布模型数量达到13个。表:阿里AI全景布局产业链位置芯片层团

队达摩院平头哥类

型RISC-V

CPUGPU产

品玄铁含光qwen-max/plus/turbo/Longqwen-math(数学)qwen-coder(代码)qwen-vl(图像理解)qwen-vl-ocr(OCR)qwen-audio(音频理解)文本生成模型wanx系列(通用生成/涂鸦作画/布局重绘/背景生成/图像生成与修改模型

动漫人物生成/虚拟模特/创意海报生成/图配文

)image系列阿里云(画面扩展/实例分割/擦除补全)cosyvoice/sambert(文本转语音)语音合成模型语音识别模型模型层paraformer/sensevoice(语音转文本)emo/liveportrait/animate/motionshop(人像)video-style-transform(视频编辑与生成)视频合成模型QwQ(推理)QVQ(多模态推理)夸克大模型(通识/搜索)灵知大模型(学习)高考志愿大模型推理模型多模态大模型多模态大模型垂直场景夸克蚂蚁淘天阿里大文娱多模态大模型百灵大模型(垂直行业)多模态大模型图像生成星辰大模型(电商/生活服务)神力霓裳(文生图)除阿里云外,蚂蚁、夸克、淘天、大文娱等阿里其他事业部亦推出了自己的大模型及AI应用产品。例如夸克专注通识、搜索和学习场景,布局AI搜索及搜题能力;淘天星辰大模型定位电商和生活服务,助力商户降本增效;大文娱事业部则推出神力霓裳妆造大模型,快速生成影视级的朝代服饰造型,优化设计师工作流。&LPLM-10B阿里云通义

有鹿机器人具身智能大模型大模型/Agent构建平台Agent云基础设施智能体/数字人开发平台AI模型分享与交流社区全能AI助手编程阿里云百炼无影AgentBay芝士派(百宝箱)魔搭阿里云平台层蚂蚁达摩院通义通义灵码/Lingma

IDE通义听悟通义智文通义星尘通义点金通义晓蜜通义仁心通义法睿通义万相心流录音转写阅读虚拟人金融客服阿里云通义医疗卫生法律艺术创作Agent数据分析应用层析言GBI全妙AI云盾支小宝CodeFuse阿里云百炼阿里云安全蚂蚁文本创作AI安全AI生活助手智能研发助手此外,阿里还通过达摩院和平头哥布局了自研CPU和GPU,从硬件基础层完善国产AI闭环。AI搜索深度研究/搜索/AI相机电商夸克AI搜索(搜题/深度搜索)夸克AI超级框绘蛙寻光神力霓裳淘天达摩院阿里大文娱飞猪视频创作影视妆造旅行智能音箱闺蜜机AI眼镜问一问(旅行Agent)天猫精灵哇哦天猫精灵夸克智能硬件夸克AI眼镜17资料:中信建投整理阿里巴巴:千问成为超级入口,流量+生态一把抓阿里已形成了B端+C端的完整布局,C端有望打造AI时代的“AI时代的淘宝+支付宝”超级入口。阿里于11月17日上线的千问APP进一步彰显了其野心——通过对标ChatGPT,千问APP布局C端,一方面能够整合通义、夸克等原有C端产品能力;另一方面能够以千问模型为基座,参考OpenAI“All

in

one”战略打造完整生态体系。12月10日,阿里巴巴官方信息显示,旗下AI应用“千问”自11月17日全面公测仅23天,月活跃用户数(涵盖APP、Web、PC全端)已破3000万大关,一举成为全球增长最快的AI应用之一。阿里内部也已正式成立千问C端事业群,由阿里巴巴集团副总裁吴嘉负责,将原智能信息与智能互联两个事业群合并重组,包含千问APP、夸克、AI硬件、UC、书旗等业务。阿里的商业模式从“卖云算力/卖API”升级为“全栈式AI服务提供商,既有产品亦有生态”,并在吃喝玩乐各生活场景进行产品落地,如千问点奶茶、蚂蚁阿福问诊等。在电商场景中,引入大模型后商品推荐点击率、购买效率、广告投放ROI等均有提升为商家提供了可量化的增收逻辑。后续千问APP有望通过导流分成、广告、金融与本地生活佣金等多维方式变现,其价值有望成为AI时代的超级入口。图:千问APP全面接入阿里生态全面图:千问App迭代快,用户增长快12月2日11月24日12月3日资料:千问,中信建投资料:千问,中信建投18字节跳动:围绕内容生态海内外同步布局,端侧落地迅速围绕内容生态国内外同步布局,拥抱大模型端侧落地。依托抖音广泛的用户基础,字节跳动主要围绕短视频内容生态布局相关模型和应用产品。其中模型层包括语音、语言、图片、音乐、视频、多模态、3D等类别,应用层则包括智能体开发、图片/视频生成、剪辑工具、电商内容生成等工具。此外,正如抖音在海外成功复制出TikTok,字节AI产品同样在国内外同步推进,例如扣子、豆包、即梦、剪映分别在海外对应Coze、CiCi、Dreamnina、CapCut。除软件外,字节同样积极拥抱大模型在端侧设备的落地,陆续推出耳机、陪伴玩具等产品。模型层:字节跳动豆包

2.0

矩阵包含

Pro、Lite、Mini

及专属

Code

版本,针对复杂指令执行进行系统性重构。其中

Pro

版本在深度推理与长链路任务表现突出,于数学及编程竞赛评测中达到金牌水平。多模态层面,豆包

2.0

在流式实时问答和长视频理解中取得行业领先成绩。其

Code

模型深度融合内部

AI

编程工具

TRAE,显著强化了工作流中的自动纠错能力。在保持顶尖模型性能的背景下,豆包

2.0

进一步将

Token

成本降低约一个数量级,有效破解长周期智能体应用落地的成本约束。图:豆包大模型2.0在视觉理解任务上达到顶尖水平图:豆包大模型2.0推理和Agent能力评测表现优秀数据:量子位,中信建投数据:量子位,中信建投19字节跳动:以豆包为核心载体,不断升级与融合应用层:字节应用主要以豆包为核心,并全面布局各细分场景,例如将视频生成模型Seedance

2.0融合入豆包成为某一功能键。豆包日均调用量持续高增,2024年5月首次披露时仅1200亿,

2025年12月已达到50万亿,较2025年5月的16.4万亿增长超过200%。豆包调用量的持续提升亦反映在火山引擎的云服务份额上,25H1中国公有云上大模型调用量(云厂商对外部客户提供的服务,不含自有业务)达536.7万亿Tokens,较2024年114万亿Tokens增长近400%。其中火山引擎以49.2%的份额位居第一,阿里云百炼平台27.0%和百度智能云千帆平台17.0%次之。产品端,一方面,字节密集推出了覆盖各种应用的AI原生矩阵,在海外则复制国内经验推出对应测评,差异在于采用了海外模型。另一方面,字节借助豆包大模型实现内部产品赋能,目前已应用于抖音、飞书、番茄小说等部超过50个业务场景。端侧:字节端侧硬件的布局由来已久:2019年收购锤子科技坚果手机团队,而后推出的手机未引起较大反响;2020年启动“大力教育”团队,首款产品为具备拍照传题功能的智能台灯;2021年收购VR品牌PICO,累计投入资金或已达到200亿左右(:AI.X硬件产品);大模型时代,字节继续发力AI端侧部署,2024年10月10日,字节跳动豆包发布业内首款AI

智能体耳机

Ola

Friend,可接入豆包大模型,并可通过语音交互实现信息查询、旅游出行、英语学习及情感交流等功能;2024年的中秋礼品中同样包含了一个AI毛绒玩具“显眼包”,其集合了豆包大模型、扣子专业版、语音识别、语音合成等多项火山引擎人工智能技术,能通过语音互动的方式为用户提供情感陪护,在社交媒体引发一阵风潮。2025年12月1日,字节跳动联合通讯推出AI手机,具备高权限Agent能力,能跨应用执行复杂指令,完成复杂任务。图:豆包日均调用量情况图:豆包手机助手2025年12月2025年9月2025年8月2025年5月2025年3月2024年12月2024年5月3025.916.412.740.1205101520253(0

万亿)20数据:字节跳动,中信建投数据:蕾科技,中信建投字节跳动AI全景布局产业链位置团队类型产品Doubao-proDoubao-liteSeed-OSS文字模型Seed-ASR(语音识别)Seed-T

T

S(语音合成)Seed-ICL(语音复刻)LiveInterpret(同声传译)豆包·语音播客模型语音模型SDXL-Lighting(文生图)SeedEdit(图像编辑)ResAdapter(动态分辨率图象生成)Seed-Music(音乐制作)Boximator(视频编辑)seed图片模型音乐模型模型层MagicVideo-V2(文生视频)AnimateDiff-Lightning(文生视频)PixelDance

(文生视频、图生视频)Seaweed/Seedance(文生视频、图生视频)BuboGPT视频模型多模态模型3D模型数字人MVDream智能创作数字人团队ByteDance

ResearchOminiHuman(数字人生成)GR-1/GR-2扣子具身智能模型平台层Flow智能体开发平台Coze(海外)豆包智能助手CiCi(海外)小悟空工具集ChitChop(已停止运营)猫箱Flow社交小黄蕉(已下线)AnyDoor(海外)星绘图像图片/视频生成图片编辑视频剪辑教育PicPic(海外)即梦AIDreamina(海外)醒图Hypic(海外)剪映剪映/剪小映(剪映简化版)应用层CapCut(海外)豆包爱学Gaut

h(海外)抖音AI分身(KOL内测)大力教育抖音/TikTok飞书数字人TikTok

Al网红抖音电商内容生成视频生成即创AI剪知识问答/会议纪要/多维表格/AI开发套件/AI

Agent/aPaaS企业AI助手豆包MarsCode编程助手MarsCode(海外)Trae字节跳动开发者服务团队其他模型分享社区教育音乐生成智能体耳机智能台灯智能玩偶炉米Lumi识典古籍海绵音乐Oladance+Flow大力教育Ola

Friend大力智能学习灯显眼包智能硬件FoloToy+火山引擎21数据:新皮层NewNewThing,ADFeed,Coze,Z

Finance,中信建投商业模式总结:从单一API供应向全模态产品矩阵与生态闭环转型大模型商业化正在从“单一API/MaaS供给”加速转向“模型+全模态产品矩阵+Agent生态”的组合型闭环,接口本身逐渐商品化,但真正的利润和估值溢价将来自产品体验与生态位。中国与全球头部厂商在路径上高度趋同:海外以OpenAI、Anthropic为代表,从API扩展到ChatGPT

Enterprise/Teams、Claude

Code等“工作流级”产品,企业订阅与Agent将逐步与C端订阅、API形成三足鼎立;国内则以智谱、MiniMax、阿里千问、字节豆包、腾讯元宝为代表,分别在B端MaaS、本地化交付、C端AI原生应用与互联网超级入口方向形成差异化布局。从收入结构看,行业已经出现清晰的“B端基建派”和“C端全球化派”分化:前者依托MaaS+本地化项目获得较高毛利和确定性收入,后者依托AI原生应用与全球订阅/广告实现高速放量。两类模式的共同趋势是在全模态产品和多Agent平台上汇合,推动Token消耗与AI云收入以指数级扩张,对算力和网络基础设施提出持续高压需求。MiniMax

C端AI原生产品收入占比已上升至71.1%,而智谱MaaS+本地化部署仍贡献约85%左右收入;OpenAI当前收入结构约75%以上来自C端ChatGPT订阅,但企业订阅与API占比预计持续提升;Anthropic则

约82%收入来自企业级服务和API,通过Claude

Code等垂直产品形成“高ARPU+高续费”的企业SaaS曲线。后续,关注国内外独角兽和大厂在超级入口、模型即产品、生态的打造和商业化推进。22目录CONTENTS1、模型如何演变?2、模型公司商业模式变化?3、如何总结2025年的AI行业?4、预测2026年AI行业发展?5、投资建议与风险提示AI

2

025:

产业从基础设施红利期开始走向推理导向的应用落地期复盘过去3年,从2025年开始可以显著观察到大模型产业从“模型爆发+基础设施抢建”的导入期,明显迈入以推理需求与企业级应用为主导的成长期。1)全球算力结构从训练侧集中投放,逐步向推理与多模态Agent迁移:2025年全球训练算力需求占比约53%、推理约47%,预计到2028年将反转为训练45%、推理55%,反映出训练需求增速放缓而推理Token量与在线会话并发数进入指数级扩张区间。2)当前GPU仍牢牢占据高端训练与通用加速的主导地位,但在云端与边缘推理场景,ASIC占比快速提升,性价比在成本端日益重要;3)光模块、HBM存储、液冷、电力等基础设施链条的业绩持续兑现,呈现阶段性红利效应。中美在AI基础设施投资端仍属加大投入的状态。根据美国五大科技公司微软、亚马逊、谷歌、Meta、甲骨文均在财报电话会的综合信息显示,这五家科技公司FY2026年资本支出将超过4700亿美元(约合3.3万亿人民币)。保守计算2026年资本支出增速至少超过26%(保守计算,亚马逊、谷歌资本支出仅维持2025年的规模)。其中FY2025年五大科技公司资本支出总额将超过3700亿美元(约合2.6万亿人民币),总增速约为64%。而在2024年,五大科技公司资本支出总额仅为2208亿美元(约合1.6万亿人民币),不到2026年的一半。中国2025年AI相关Capex在6000–7000亿元区间,同比大幅上行。互联网巨头与三大运营商构成“双轮驱动”,里巴巴三年3800亿元云与AI基础设施计划、字节跳动单年1500–1600亿元Capex、腾讯90–1000亿元级别投入,使得国内数据中心、电力配套、液冷、存储及本土算力芯片产业链全面受益。2B应用开始走向规模化落地。RAG+Agent成为主流技术范式,Gartner预计2025年全球68%企业在智能客服、知识管理等场景落地RAG系统,相比2023年的25%有显著提升,这一趋势为向量数据库、高性能存储与本地部署算力提供了持续需求。24算力2025:从训练主导往推理主导过度,ASIC加速渗透训练需求增速边际放缓,推理与Token需求进入加速区间。目前多个数据显示,2025年全球的训练需求仍略高于推理,到2027–2028年预估推理将提升至50%及以上的主导位置。主要原因是:1)AI模型大规模落地,如主流云服务商月度处理的Token数量在2025年底达到数万亿级别,随着Copilot类生产力工具和垂直行业Agent上线,推理调用频次远超训练节奏;2)算力在训练和推理分配优化,训练任务阶段性集中于少数基础与多模态模型迭代,单模型规模增速放缓,而推理侧用户数和调用强度呈指数增长,尤其是多模态的广泛使用;这一变化反映出

AI

产业从

“模型研发”

“价值兑现”

的重心转移;3)算法优化与硬件适配的双重推动,模型蒸馏、量化等技术降低推理对算力的门槛,同时专用推理芯片(如寒武纪思元

590、燧原科技邃思系列)通过架构优化提升能效比。例如,寒武纪

MLU590

采用

Chiplet

技术,算力密度提升

2.3

倍,推动推理任务从云端向边缘渗透。芯片架构多元化日益明显,ASIC加速普及。1)芯片从以GPU通用芯片,往ASIC等专业芯片方向多样化发展。IDC数据显示,2024H1我国AI服务器仍以GPU为主,占比86%,但受AI场景和算法驱动,以ASIC为代表的非GPU的AI服务器以182%增速,达到近7亿美金;2)AI推理需求爆发,推动ASIC芯片广泛应用。IDC预测,2024-2026的推理场景中,ASIC占比将从15%提高到40%,最高约1600亿美金。国外科技巨头亦加速研发自研自用ASIC的AI芯片,如谷歌(TPU)、Met

a(MTIA)、特斯拉(Dojo

D1)等。图:中国AI服务器市场份额,202425数据:IDC、中信建投算力2025:单芯片算力逼近极限,集群创新成为新方向受摩尔定律限制和工艺、能耗影响,单片算力性能提升逼近极限,行业通过工程化与系统创新探索新路径。1)多芯片互联、软硬协同优化,打造超节点结构,实现系统性能提升。如384超节点,将384颗910C芯片通过全连接拓扑结构,实现性能提升;2)多芯粒集成与先进封装技术助力芯片级算力提升。如英伟达B200芯片基于2颗芯粒集成而来,并通过CoWoS封装实现GPU和HBM高度集成,同步提升带宽和能效,下一步计划利用CoWoP封装实现下一代Rubin产品成本与性能的平衡;3)存算一体,

以存代算。通过以存代算,节约算力消耗。该技术通过将

AI

推理所需的矢量数据从

DRAM

内存迁移至SSD

闪存介质优化计算效率,核心价值在于缓解先进制程限制(如受

7nm

制程制约)、降低对

HBM/GPU

的过度依赖、实现

“存算一体”

系统创新,其本质是存储层扩展(从内存到

SSD),而非

DRAM

的替代品。4)

跨地域的多智算中心协同及分布部署。。另外如谷歌已组建跨多个智算中心的大规模集群,完成如Gemini

Ultra,Gemini

1.5pro等大模型训练,初步验证大模型跨智算中心分布式协同训练的可能。26应用2025:多模态持续亮眼,AI内容占比首超人类多模态往原生多模态/全模态持续演进,国内产品开始出现赶超海外的态势。原生多模态指的是模型能够同时理解文本、语音、图像和视频数据,而且能够在不同模态之间进行灵活的交互和转换,区别于此前的文生图/文生视频/图生视频等多模态模型,原生多模态重点是用一个模型整合了各个模态,而非单一模态的转换(架构变化体现为过去文本和非文本的编码器是独立编码的,而原生多模态会将文本和非文本token交叉编码)。Google

Gemini系列模型在多模态能力的持续领先正反映了原生多模态架构的优越性,国内字节、MiniMax亦逐步跟进,例如豆包1.8称支持原生的文本、图像、视频等多模态数据处理。其中,可灵AI

2025年12月的当月收入突破2000万美元,对应年化收入运行率(简称ARR)达2.4亿美元。此前,可灵AI曾在2025年3月,即正式上线的第10个月宣布ARR突破1亿美元。市场规模看,

2024年全球AI视频生成市场规模约为6.1亿美元,到2030年全球AI视频处理软件市场规模有望攀升至10.8亿美元,年复合增长率(CAGR)将高达31.0%。2025年实现AI生成内容占比首超人类达52%,内容生产格局生变。Graphite的研究显示,针对2020年1月至2025年5月期间发布的6.5万篇英文网络文章进行了抽样分析,样本覆盖CommonCrawl全球最大公开网络档案库中的随机网址。数据显示,AI生成内容在2024年11月首次超越人类创作内容,并在2025年1月至5月的持续统计中保持增长态势,最终达到52%的占比。一方面,AI技术能够显著提高内容生产效率,降低成本;另一方面,AI生成内容的质量、真实性以及与人类创作的差异,也引发了广泛关注。未来,AI与人类的协作将成为内容创作的主流模式,如何平衡效率与质量,提升内容的独特性和价值,将是内容创作者和SEO从业者面临的重要挑战。同时,AI内容检测技术也将迎来发展机遇,以确保内容的真实性和可信度。27应用2025:

RAG与Agent驱动企业级AI从“可用”走向“可规模”2025年企业级AI应用的工程化路径基本确立为“基础模型

+

RAG

+

轻量化

+

Agent工作流”,其中RAG已从一种“可选技术路线”升级为事实标准。根据Gartner等机构预测,全球采用RAG系统的企业占比将从2023年的25%提升至2024年的45%,2025年有望达到68%,并在2026年进一步升至82%,标志着RAG技术从概念验证进入规模化商业应用阶段。从A股软件公司的相关收入看,企业级AI+的产品和销售已初具雏形。2024年国内软件公司的AI收入普遍在千万级左右,2025年头部软件公司的AI相关收入突破亿级,收入占比超过5%以上。表:国内B端企业AI商业化进展公司汉得信息要点2025年前三季度,AI业务收入2.1亿元,其中单三季度约1亿元。2025年上半年已签约AI大模型应用交付订单金额约7000万元,同比增长78倍;与某公司签订框架订单超过4000万元。2025年上半年AI大模型应用与交付业务收入约为人民币0.26亿元,同比增长76倍。2025年前三季度,AI大模型交付业务收入超7500万元,同比增长26倍;已签订单金额突破1.5亿元,同比增长78倍。亚信科技第四范式2025年上半年核心产品先知AI平台需求强劲,同比增长约71.9%,驱动核心业务板块收入增长,且在整体收入中的占比持续扩大,带动公司整体收入及毛利润双增长,助力公司大幅减亏。2025上半年为企业提供深度绑定业务、工程化落地的AI解决方案(企业级AIOS),实现标杆用户数90个,较去年同期增长4个;每标杆用户平均收入为人民币1798万元,较去年同比增长56.6%。金蝶国际用友网络截至2025年上半年末,公司AI合同金额已超人民币1.5亿元。AI业务相关合同签约金额超3.2亿元。2025年上半年AI市场需求增加,AI+SaaS收入同比增长26.0%,订单(不含一体机)同比增长69.1%;A

gent模块增购及Agent解决方案深化应用带动,SM

B老客户客单价提升21.7%,KA老客户客单价提升20.7%。同时,AI工具带动运营效率提升,费用端下降,助力公司扭亏。迈富时公司2025年限制性股票激励计划业绩考核要求为2025-2027年,AI产品关联合同金额分别达到1.0/1.3/1.69亿元,上述预期对应公司AI订单收入占比10%以上。中标多个重量级项目,包括中国航发沈阳黎明航空发动机有限责任公司知识管理系统、中国银行智能消保平台项目(一期)-CHS(外购部分)、南方电网能源发展研究院能源电力政策信息及情报智能化感知分析技术服务项目。致远互联拓尔思2025年上半年,亿企赢基于大模型技术加速推进财税数工场打造,实现多场景的数智员工商业化验证及销售,实现AI驱动的产品及服务回款收入(包括数智会计、数智合规顾问等)占公司数智财税业务销售回款比例为

26.59%。税友股份截至2025年3月31日,公司AI产品套件已获得超过300家付费企业客户的采用,产生的年度经常性收入(ARR)已超过人民币600万元。其中,AI面试官作为单点突破的标杆产品,累计签约客户已超过240家;AI领导力教练Mr.

Sen自2024年12月推出后,在当财年内已为超过20家知名企业提供服务,实现了快速商业化;其他AI产品亦获得了良好的用户反馈。北森控股数据:wind、中信建投28目录CONTENTS1、模型如何演变?2、模型公司商业模式变化?3、如何总结2025年的AI行业?4、预测2026年AI行业发展?5、投资建议与风险提示模型2026:后训练范式加速,AI持续自主化展望2026年,大模型有望进一步延续2025年推理的方向,并在技术架构方面不断升级,为用户提供更高的应用价值。我们预计主要的发展方向如下:1)RL的持续与升级。相较于预训练Scaling

law,2025年兴起的强化学习目前仍处于早期阶段,体现在目前后训练的算力消耗占比仍相对较少,海外如Grok

4在强化学习阶段的算力消耗已超过预训练阶段,国内如DeepSeek

v3.2的技术报告仅提到强化学习的算力投入仅超过预训练的10%,看好2026年RL的算力投入占比进一步提升。同时,目前RL主要都在可验证的领域(如编程、数学)更强,新的拓展方向可能包括形成通识领域的评价体系(如构建模型自评价体系)。此外,目前模型的能力往往出现锯齿状的智能跃升,例如使用小规模数据集进行RL即可显著提升模型的推理能力,这意味着模型的能力很可能实际上沉淀在模型内,行业甚至对模型潜力的挖掘不足10%,需要新的技术促进模型能力外显。2)架构方案的升级。Jeff

Dean

在近期的访谈中表示,一套设计系统时通常只需要考虑5–10倍的增长,而一旦访问的规模放大到100倍,原本看起来不合理的方案甚至可能会变成最优解。

Transformer架构发布至今已经近十年,而目前AI模型的参数量、上下文长度和推理规模,以及算力的需求量已经呈现出数个数量级的跃迁,对旧架构打补丁可能并不是最优方案。Demis

Hassabis此前同样在访谈中表示,通往AGI还需要1-2个Transformer级别的重大突破,比如持续学习、更好的长期记忆机制、更高效的上下文窗口等。30模型2026:后训练范式加速,AI持续自主化3)更长上下文与记忆的突破。当前主流模型已普遍具备支持百万Token输入的能力,但在实际长任务过程中,模型精准检索与逻辑链条的维持仍存在信息衰减瓶颈,仍待高效上下文压缩算法、动态记忆机制等技术突破。同时,对长上下文的学习也不应该局限在“大海捞针”类的检索,而应该进一步扩充至在超大规模信息中,找到、整理并使用多条互相关联的线索,完成真正复杂的任务。

MiniMax

M2提出的Interleaved

Thinking(交错思维,Agent执行过程中形成同步思考、实时调整、持续修正的循环),以及智谱GLM-4.7提出的Preserved

Thinking(保留思考,模型自动保留多轮对话中的所有思考块,重用现有推理而不是从头重新推导,减少信息丢失和不一致性)等都是在这方面的探索。4)更多维度原生多模态融合与世界模型。未来模型处理信息的维度将被无限拓宽,Jeff

Dean认为多模态大模型的训练语料不应该局限于文本、音频和视频,而是广泛囊括各类传感器数据,如自动驾驶点云、机器人高精度关节传感序列、医学影像以及复杂基因组测序信息等,其中视觉与物理运动控制数据是数百种潜在模态中最具价值的数据。世界模型同样需要囊括海量跨传感器的时空序列数据,从而内化真实物理世界的因果法则与运动规律,使模型具备在虚拟环境内进行高保真物理仿真的能力。李飞飞World

Labs近期完成新一轮10亿美元融资,英伟达、AMD以及a16z等继续追加投资,新投资方CAD厂商Autodesk表示双方将共同探索世界模型在空间设计等场景中的应用潜力。5)Agent自主化与个人助理。开源框架OpenClaw的现象级破圈,标志着Agent在复杂环境感知、多步骤动态任务拆解、工具调用与自我逻辑纠偏能力上实现了深度自主化。OpenClaw是运行在本地设备上的全能私人助理,技术对于大厂而言并不复杂,更多在于交互范式的进化(过去人主动使用AI,现在AI在后台自动运行)以及本地访问权限的开发。国内豆包、千问争夺个人Agent的入口,本质上也是一种个人助理,但其缺乏的自主性使产品并未跳出工具范畴。未来归属于个人的AI产品将会更多,能否用的好AI将会成为用户最核心的差距。31多模态2026:进入“反超”阶段,工程问题解决Seendace

2.0惊艳用户,持续优化AI视频生成对生成结果的把控。Seedance

2.0于26年2月推出,其核心突破在于全方位多模态参考与精细化镜头控制,模型支持同时上传最多

12

个参考素材(含图像、视频、音频),能够对角色面部、服装纹理及画面风格进行像素级锁定,有效解决了

AI

视频长期存在的角色一致性难题。通过引入首尾帧控制与原生音视频同步技术,创作者能够精准定义镜头的起止状态并实现口型与动作的帧级对齐,这使得

AI

生成不仅停留在空镜或单人动作,而是真正具备了处理复杂叙事与多镜头交互的能力。当前字节多模态模型主要包括Doubao多模态、Seedream、Seedance等,Seedance

2.0有望作为全模态的一环,大幅压缩内容制作成本并提升素材产出效率,并在即梦和剪映平台实现商业化落地。平台鼓励AI内容精品化,催化AI内容市场,如漫剧、互动剧等。产业侧,漫剧市场迎来爆发式增长,AI

仿真人剧成为新流量高地。据

1

20

日巨量引擎漫剧生态大会数据,漫剧赛道日耗峰值已达

3000

万,预计

2026

年市场规模将突破

220

亿元。2025

年下半年,漫剧广告营销流水增长超

21

倍,每日自然流水大盘增长

144%。尽管总供给量突破

10

万部,但优质动画及AI

仿真人剧供给仍显稀缺,自

2025

11

月以来仿真人剧快速起量并带动千万级大盘流量。在技术赋能下,AI

已深度融入漫剧生产管线,内容制作环节渗透率达

50%-80%,平均降低生产成本

70%

以上,提升效率

80%

以上。Seedance

2.0

的推出有望进一步缓解优质产能短缺,通过

IP(60%

爆款源自小说)与

AI

的结合,加速漫剧产业的工业化升级。图:Seedance

2.0上线图:字节对漫剧作者提供高额激励数据:字节跳动,中信建投数据:文娱先声,中信建投32Agent2026:MAS成为核心,开源+MCP加速产业发展Anthropic开年新品打开新高度,Agent

Teams机制,实现复杂工程任务的全自动托管,

MAS(multi-system-agent)有望成为今年各家产品发展方向。2026年

2

5

日,Anthropic

正式发布

Claude

Opus

4.6,在多领域推理与

Agent能力上实现断层式领先。在评估金融、法律等高价值知识工作的

GDPval-AA

评测中,Opus

4.6

超出行业竞品

GPT-5.2

高达

144

Elo,并创新引入自适应思考功能,标志着

AI

的能力边界从基础问答正式迈入高阶专家领域。别于单体智能体,Opus

4.6

在深度集成的Claude

Code

中原生支持开发者组建智能体团(MAS)协同处理任务。在

Anthropic

安全团队的压力测试中,16

Opus

4.6实例组成的

Agent

团队,在无人干预的情况下历时两周、消耗

20

亿输入

Token

1.4

亿输出

Token,成功从零开始编写出支持

x86、ARM

等架构的

Linux

6.9

内核

C

编译器。Opus

4.6的更新同样反映MAS的持续落地——即当前AI已具备长周期规划、多任务并发与自我纠错的系统性工程能力,助力用户解决复杂场景任务。国产模型逆袭开源

Agent

社区,Kimi

MiniMax

展现全球竞争力。

在硅谷巨头激战正酣之际,中国大模型在开源应用框架OpenClaw

中异军突起。OpenClaw

原作者

Peter

Steinberger

在面临

Anthropic

限制后,迅速完成

MiniMax

M2.1

的适配,并公开评价其“在工具调用方面表现极其出色且精准,边际成本接近于零”。Kimi

K2.5

上线不足一周即登顶

OpenClaw

调用榜首,单周累计消耗

26.6B

Tokens,一举超越

Gemini

3

Flash与

Claude

Sonnet

4.5。我们认为,国产模型在

OpenClaw

中的爆发验证了其在代码与智能体方面的技术成熟度,高性能+低成本的方案正助力中国厂商在全球

AI

应用层实现突破,打破海外模型垄断。图:Peter

Steinberger称赞MiniMax

M2.1图:kimi

k2.5登顶OpenClaw调用排行榜33数据:量子位,中信建投数据:51CTO技术栈,中信建投算力2026:Token指数级增长,带动算力通胀我们预期2026–2030年全球Token消耗呈现指数级放大。根据数据局数据,2024年初我国日均Token的消耗量为1千亿;截至25年6月底,日均Token消耗量已经突破30万亿,1年半时间增长了300多倍,这反映了我国人工智能应用规模的快速增长。此外,2026年春节期间考虑各家AI的投放和拉新活动,预计日均Token消耗量突破百万亿级。海外,谷歌2025年10月月均token处理量为1.3千万亿token,较2024年4月增长50倍,主要是搜索类免费AI产品贡献。从“算力普惠”到“算力通胀”,需求爆发+成本传导带动云涨价逻辑持续演绎。近期国内外云厂商涨价函频发,AI推理需求带

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论