版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1 计算机沪深3002025/4从聊天机器人到“会主动执行”的Agent智能体。OpenClaw的出圈代表着Agent真正从“仅会回答”走向“会主动执行”,其核心价值在于让AI具备7×24小时在线、自主拆解任务、调用工具、读写文件、跨平台调度和闭环交付的能力,AI开始从对话助手升级为真正可落地的“数字员工”。我们预计,这意味着互联网和企业IT的计费逻辑正从过去的流量、时长和入口竞争,转向Token消耗、执行完成度、安全治理、审计追踪和资源供给计费。“龙虾”爆火启示Token需求“通胀”受益方向。“龙虾”的爆火预示在Agent时代Token需求的非线性增长,或直接带来超预期的AI算力需求与大模型的调用需求,同时云厂商也不再只是卖算力,而是开始争夺Agent的部署入口、模型分发权和后续扩容权。我们预计,Agent的持续运行会显著放大Token消耗、联网搜索、状态存储、长连接和多步推理需求,进而带动芯片、模型、云平台三个层面的系统性重估。一“芯”:寒武纪、海光信息、云天励飞等国产AI芯片。Agent时代的算力需求不只是GPU推理,还包括工具调用、环境构建、任务调度、长期记忆和高并发CPU协同,算力底座的重要性明显提升。寒武纪等国产算力厂商,一方面受益于Token通胀带来的推理需求扩张,另一方面也受益于国产替代和产业链自主可控二“模”:MiniMax、智谱。Agent时代驱动大模型coding能力需求呈现非线性增长,同时其对单位成本、长文本、多步推理、编程能力等闭环能力综合要求使得国产大模型优势明显。MiniMax的优势在于高性价比、长上下文和编程/视觉执行能力,更适合被高频工作流调用;智谱具备全球领先的coding技术能力,价格上调反映出模型层正在从价格战转向分层订阅和定价权提升。三“云”:金山云、网宿科技、优刻得等。云是本轮高确定性的“卖铲人”,金山云、优刻得等受益于一键部署、模型托管、知识库、Agent平台订阅和企业级治理需求;网宿科技则受益于机器流量提升后,CDN、API网关、边缘安全和流量治理价值上移。整体来看,云层有较高确定性,模型层弹性大,芯片层是长期底投资建议:建议围绕“Agent渗透率提升—Token通胀—云与模型重定价”的主线布局。短期优先关注云平台,因其商业模式清晰、落地快、盈利改善也有望更快速兑现;中期重点关注模型厂商,有望凭借更低成本承接更高频调用,实现放大流水和订阅收入的增长;长期看好国产算力芯片,在推理需求扩张和自主可控趋势下,我们预计国产芯片厂商具备更强业绩弹性。总体上,建议重点关注一“芯”、二“模”、三“云”三条主线的核心资产。风险提示:Agent落地节奏不及预期;模型厂的产品付费转化率低于预期;模型价格战;算力供给扰动;CPU需求弹性测算偏差。行业动态报告/计算机行业动态报告/计算机21OpenClaw:开启人人可用的AIAgent时代 31.1重塑云端的竞争逻辑 31.2交互入口、内容社区、API基建和用户注意力价值的重构 31.3技术与商业收敛的核心是可控性与可结算性 31.4Agent时代下价值量提升的环节 41.5国内外生态形态导致的付费结构分化 61.6付费主体和方向的变化 61.7互联网交互单位的改变 62OpenClaw安装部署:从体验到深度定制 82.1OpenClaw核心机制理解 82.2OpenClaw安装部署 83OpenClaw驱动的三大受益方向 93.1CPU和国产芯片 93.2大模型 3.3云厂商 214投资建议 285风险提示 29插图目录 表格目录 31OpenClaw:开启人人可用的AIAgent时代2026年初,24小时全天候专属的个人AI助手Clawdbot上线,以其突破性的自动化逻辑与代码生成能力迅速在海外科技圈获得超高关注度,产品后续更名为OpenClaw。阿里巴巴、腾讯和优刻得等国内云厂商竞相展开深度生态合作,正式拉开了AIAgent(智能体)时代的“序幕”。我们认为它标志着AI从单纯的“对话工具”向“自主作业”实现了跨代飞跃。这起现象级事件正式拉开了Agent渗透工业化生产工作流的序幕,其提效潜力正得到初步验证。其作为一款24小时自动运行的AI助手,OpenClaw突破了AI作为“被动问答工具”的阶段。正式定义了以自主拆解、跨平台调度和闭环执行为核心的生产范式。它促使AI从屏幕背后的“智囊”进化为深入业务一线、具备实操权的“数字雇员”,大幅压缩了从创意到落地的开发链路,将企业数字化转型的重心从“流程驱动”转向“智能驱动”。这一趋势也迫使国内云厂商从单纯的算力基础设施方,加速转型为智能体全栈底座服务商。未来的云不再仅仅是存储与计算,而是由无数Agent高效协作构成的自动化操作系统,重构了人机协作的边界。我们认为交互入口有概率由分散的App收拢至Agent统一界面,用户行为从“信息检索”转向“意图达成”;内容社区则从单纯的人类社交场,正逐步演变为Agent获取知识与共识的语料池及协同中枢。同时,API基建已不再是幕后的技术通道,API的标准化程度直接决定了Agent的生态边界。核心的重塑在于用户注意力价值,用户正从被动的流量消耗中释放,回归至高阶的决策与创造。这标志着商业逻辑正从“时长收割”向“任务溢价”转型,重塑了互联网工作流的生产力与分配逻辑。未来关注点或将从“提供好用的Agent”过渡到“能够让企业可衡量、可治理、可收费”的层级。衡量成本从带宽延迟转向有效执行和治理成本,这直接导致互联网的价值密度重新分配,将收益更多导向能够衡量、控制与计费的层级,而不是简单内容或入口。AIAgent的发展将驱动传统的计价方式从“流量”转向“单位执行量计价、安全治理计价和资源供给计价”。在Agent时代,能够实现付费的4关键机制包括:可执行能力付费:即按智能体执行行为、推理调用量等计费;资源使用付费:按算力、带宽、存储等实体资源计费;安全与治理付费:面向企业安全、合规审计、策略控制等计费;授权与访问付费:内容或服务提供方针对Agent的访问授权付费;结果/转化付费:基于智能体执行任务后的结果完成付费或分成。云与计算平台、主动代理的硬件设备、安全治理以及内容/执行授权付费。云服务供应商在传统架构中主要收入来自虚拟机、存储与网络等基础设施计费,而在Agent时代,其收入构成将发生显著变化。一方面,推理与智能体执行行为会成为云服务新的增长引擎,推动资源使用量计费。另一方面,云厂商将通过Agent平台订阅、开发者生态套件、行业级解决方案等形成新的长期合同收入。典型的计费单元包括:•GPU/推理时长类资源付费;Agent平台席位及功能订阅;•SLA(云服务和用户签订的服务等级协议承诺)与企业级集成服务费;•平台上运行的智能体执行行为数量、复杂程度等。这些计费方式更容易映射至企业IT预算、平台预算和业务线预算,从而实现长期可控付费。以亚马逊、微软和谷歌为代表的云平台正积极将底层算力与Agent平台能力结合,把推理和智能体操作纳入云平台的收入。在中国市场,阿里云和腾讯云等选择利用“云+行业解决方案+智能体平台”组合销售模式提高合同生命周期。因此,该层面的关注点不再是云资源增长指标,而是推理收入占比、Agent平台订阅渗透率、长期合同比例和资源利用率提升能力等关键变量。重塑端侧硬件的价值锚点,对于存储与外设厂商,硬件不再仅仅是数据容器,而是进化为智能体的“私有知识库”与“边缘算力站”。NAS设备(文件级存储服务器)正从传统的云盘替代品,转型为承载Agent长期记忆(Memory)与RAG(检索增强生成)的核心中枢,对高吞吐内网与本地AI计算能力的集成成为了新的核心支出项。而对于“智能家居+物联网云平台服务”等设备商,改变则更为剧烈:摄像头不再只是安防器材,而是成为了Agent感知物理世界的“数字眼睛”。通过在端侧集成更高性能的NPU,设备实现了从“像素录制”到“语义理解”的跨越,赋予5了智能家居实时决策与自主响应的能力。这种变革驱动了硬件产业链向“端云协同、高算力、强交互”方向全面迭代,促使物理设备正式接入Agent生态闭环,成为执行复杂任务的终极载体。安全治理在过去互联网阶段主要作为辅助功能存在,但在Agent时代,安全治理成为企业预算中的核心支出项。随着智能体获得越来越多的权限(例如API调用、自动化执行任务、跨系统访问等安全风险与潜在业务损害事件的可能性显著增加。例如从2025年7月1日起,Cloudflare已经阻止了超过4160亿次来自AI机器人的请求,这些请求试图抓取客户网站上的内容。因此,传统的边缘防护和安全组件已无法满足高频行动调用的治理需求,这直接催生了新的安全治理服务市场。这一层面的核心付费逻辑包括:•API安全、Bot管理与行为策略订阅;•模型与执行安全审计工具;•动作审计与日志存储;•安全异常行为检测与响应服务。Agent生态越繁荣,越需要重视安全问题,如prompt的注入、工具滥用、越权执行、或“插件/扩展/镜像被投毒”等。近期围绕OpenClaw的安全事件(例如仿冒扩展投放木马)就表明:当一个代理工具获得大量本地权限时,它自然变成攻击者的高价值目标。这些治理服务往往由企业的安全预算或风险控制预算支付,并具有长期合同与高复购率特征。年度合同规模、净留存率、付费渗透率和审计日志储存容量增长等指标,成为需要持续关注的指标。在海外市场,Cloudflare、Akamai等在边缘安全与Bot管理上的布局为这一趋势提供了明确样本;我们认为在国内市场,安恒信息、启明星辰等本地安全厂商在API安全、云防护和审计治理方向具备成长Agent社区的扩张会导致企业与平台都需要“事后可追溯链”。当一次动作导致资金损失、数据泄漏或生产事故,企业需要追溯“模型为何调用工具让错误发生”。这会把可观测性从传统日志,升级为“代理执行链路审计”,并把成本归因(token/调用/重试)变成企业也关心的指标。因此,可观测、日志、安全运营、以及“AI网关/代理网关”的价值会上移,成为企业级Agent的标配采购。传统内容创作者依赖展示广告或点击分成实现收入,但在Agent时代,智能体可以直接从多个来源获取结构化信息并提供答案或执行任务,这降低了“自然访问流量”的经济价值。因此,内容方需要探索新的付费模式,例如:6•访问授权费:按Agent对内容访问授权次数付费;•付费引用费:智能体引用或展示特定内容时支付费用;•转化分成:对智能体执行产生的成交结果按比例分成;•精准答案赞助费:在Agent返回结果中为内容方提供优先权付费。这一趋势在海外已初见端倪,例如Cloudflare推出的AI抓取授权付费工具和搜索平台在归纳结果中加入付费广告/优先位的尝试。而在中国市场,此类付费方式可能更多发生在生态平台内的闭环变现,例如通过平台发布的信息优先被采纳、结构化数据费用等方式实现内容付费。因此授权访问次数、被引用频率、优先位付费收入、成交分成规模等指标愈发重要。这一付费模式将传统流量变现模型向“行为和结果付费模型”转向。中国市场在Agent时代的生态演进路径与海外市场存在结构性差异:中国大型互联网公司更倾向于平台闭环发展。例如在阿里体系内,将搜索、对话、任务执行与支付紧密连接,通过生态内服务闭环提升最终成交转化率。这种策略有助于增强平台粘性与商业化能力。其次,中国云厂商往往采用整体解决方案销售模式,通过行业合同捆绑计算、存储、安全治理和智能体平台实现长期收入。这种模式提升了合同生命周期和可见收入规模,有助于构建较高的业务估值基础。因此,中国市场的Agent商业化更可能出现行业方案优先、综合套餐销售、高合同可见性的特征,而不是单一订阅模式。在Agent时代,不同预算主体对应的付费方向也可能发生变化,这一付费映射反映出不同部门愿意付费的场景和预算的差异,构建了企业内部预算到实际服务收入的闭环路径。•CIO(首席信息官主要为云推理资源、Agent平台订阅付费;•企业安全团队:为API安全、Bot管理、审计日志等安全治理服务付费;•开发运维:为审计与治理可视化、策略引擎等服务付费;•业务线部门:为优先执行权付费、结构化信息引用付费;•市场/广告部门:为答案展示优先位、被赞助的行动等付费;•政府与公共预算:为基础设施(如数据中心扩容、监管合规平台)付费。Moltbook是一个专门为Agent而创建的社交平台,它类似Reddit交互入7口是API,不是表单/界面。该平台的主要参与者是AIAgents,它甚至由一个AI助理参与管理与审核。因此,当Agent成为主要“访问者/参与者”,互联网的交互单位从人类点击变成机器行动。这种变化将会把互联网的中心任务从分发内容给人,转向管理、约束和计量机器行为。一旦交互单位变成API调用与动作执行,价值链的收费闸口将从广告点击迁移到:身份与授权、调用与审计、反滥用与信誉、以及内容/数据许可与结算。订阅、其余Agent复述和执行,这会让互联网请求呈现“自激式增长”。为此Cloudflare将“AI爬虫默认阻断/按抓取付费”做成产品与策略,并明确提出站点可以选择Allow/Charge/Block,按每次请求定价。当机器流量成为主导,边缘侧(CDN/WAAP/API网关)从“加速内容”升级为“治理机器流量的收费站”,其角色更容易从“可选优化”变成“必需品”。因此,当Agent社区带来请求激增,边缘网络厂商、CDN/安全融合厂商、API网关与反Bot厂商的收入模型更容易与“请求量/策略包/日志量”绑定,从而增强可见性。图1:OpenClaw作为24小时在线的AI助理图2:Moltbook是专属于Agent的社区82OpenClaw安装部署:从体验到深度定制Workspace(工作台OpenClaw并非简单的对话系统,而是一个由多个Workspace组成的事件驱动型执行网络。每个Workspace都是一个独立的智能运行单元,包含Memory(记忆)和Tool(工具)等核心文件,用于定义行为边界、沉淀长期记忆和约束能力权限。这为AI助手的长期、稳定、个性化运行提供了架构基础。Skills(技能集这是OpenClaw实现高自由度功能的关键。Skills是标准化、模块化的能力单元,可将数据抓取、邮件发送、报告生成等业务流程沉淀为可复用模块。用户不仅可以从开源社区ClawHub安装现成技能,更可以通过自然语言对话或命令行工具,让OpenClaw自主生成所需的Skills,真正实现了“用对话创造工具”。对于不同类型的用户,从个人尝鲜者到寻求深度集成的专业开发者,OpenClaw提供了多样化的部署路径。选择合适的部署方式,将直接影响用户体验、数据安全、运营成本乃至未来的功能扩展边界。根据当前市场主流方案,OpenClaw的部署方式按技术复杂度由低到高,可归纳为以下五大类。表1:OpenClaw部署方式总结 分类名称核心特点适用人群成本区间主要缺点典型代表云托管即用型网页即用/无需技术无技术背景体验者免费功能受限/数据在厂商AutoClaw/MaxClaw大厂云服务器镜像型需稳定运行的普通用户桌面客户端简易安装注重隐私的个人用户命令行安装/国内适配需灵活配置的技术用户原版自托管+灵活配置型原版部署+API对接资料来源:国联民生证券研究所整理93OpenClaw驱动的三大受益方向OpenClaw作为具备终端键鼠接管与复杂任务自主执行能力的开源本地优先AIAgent框架,正在系统性重塑AI产业的供需结构与价值分配格局。其引发的市场热潮("龙虾热")已从技术圈层扩散至产业层面,形成了对云厂商、大模型厂商及CPU算力底座的三重价值重估。本部分将分别阐述三大受益方向的投资逻辑与产业机遇。AI产业正处于从“单次对话大模型(LLM)”向“全天候智能体(Agent)”跨越的拐点。数据中心的评估核心将从单纯的GPU峰值算力,转向全天候运行下的系统吞吐、调度效率与综合成本。在此趋势下,底层算力芯片(GPU和CPU)作为确定性较强的基础设施,将直接受益于海量常驻实例带来的需求大幅增长,是我们当前的重点推荐的方向之一。需求形态蝶变:从“单次脉冲”到“全天候常驻”,大幅推高芯片需求天花板。传统大模型应用主要消耗单次推理算力,而Agent是典型的“循环执行体”(推理-调用工具-状态读写-再推理)。随着大量Agent作为“数字员工”长驻云端,催生海量24/7在线的并发实例,我们预计底层芯片绝对用量或将迎来跨越式增长。算力结构扩散:调度密集型任务激增,驱动CPU及基础硬件价值重估。Agent系统在工程架构上,本质是以CPU为核心的控制与编排中枢,外接GPU作为推理引擎。Agent执行中的网页抓取及状态持久化等,均高度依赖CPU的并发调度能力与系统I/O。这将推动AI基建的投资主线从单纯的“唯GPU论”,向多核CPU、高带宽内存、NVMe高速存储等全栈服务器组件扩散,产业链迎来全面增量。业绩兑现确定性:在Agent真正并入企业生产环境的过程中,更上层的应用、工具链、安全体系及平台级软件往往需要经历试验、适配与优化过程。而底层算力芯片作为承载一切业务流的物理基座,不完全依赖于单一软件路线的胜出。在商业模式完全闭环前,芯片环节通常具备更高的投资确定性。AIAgent时代对CPU需求有望大幅增长,CPU可能比GPU更早成为性能瓶颈。根据英特尔发布的《ACPU-CentricPerspectiveonAgenticAI》,AgenticAI框架在传统单体大语言模型(LLMs)基础上,增加了嵌入外部工具(包括网页搜索、Python解释器、上下文数据库等)的决策协调器,将其从被动的文本应答工具转变为能够规划任务、调用工具、记忆历史步骤并动态适应的自主问题解决者。论文提出几个关键点:1)CPU上的工具处理会显著影响智能代理工作负载的执行延迟(占比最高达90.6%这表明系统优化需要兼顾CPU与GPU,而非仅聚焦GPU。2)智能代理AI工作负载的吞吐量受限于两类因素:一类是CPU相关因素(核心超配、缓存一致性、同步机制另一类是GPU相关因素(设备内存容量、带宽)。3)在大批量处理场景下,CPU动态能耗占比会变得显著(达44%因为相较于GPU并行处理,CPU并行处理的能效更低。在进行Agent相关的强化学习的时候,需要海量的CPU来构建各种工具和environment,CPU决定的是每秒能并发生成、评估并稳定地“喂”给GPU。因此,CPU往往比GPU更早成为瓶颈,其效能直接影响GPU利用率、policylag、训练稳定性以及RL的整体收敛速度。1)根据IDC预计,活跃Agent的数量将从2025年的约2860万,快速攀升至2030年的22.16亿;Agent年执行任务数将从2025年的440亿次增至2030年的415万亿次;年度Token消耗将从2025年的0.0005PetaTokens增至2030年的152,667PetaTokens。我们参考IDC对2030年的预计为长期水平,在保守/中性/乐观三种假设下,长期内全球活跃Agent的数量分别为11/22/33亿个,Agent年执行任务数分别为2075000、4150000、6225000亿次,年度Token消耗分别为76333500、152667000、229000500万亿。2)根据国家数据局官方公众号,截至2024年6月底,国内token日均消耗量30万亿,我们假设全年为365天,则对应全年国内token消耗数为10950万亿。根据智研咨询数据,2024年国内AI服务器出货量42万台,单台AI服务器对应承担的token消耗数约为260亿。考虑到AI服务器通常配置2片CPU,则单片CPU承担的token消耗数约为130亿。3)长期内,在Agent发展的大趋势下,按上述token消耗数,对应需要CPU数量分别为586966、1173933、1760899万片。表2:AIAgent对CPU需求拉动的测算资料来源:IDC、智研咨询、人民邮电报、国家数据局、国联民生证券研究所测算“龙虾”这种高频次、全天候的后台运行模式,使得云端与本地的推理算力需求呈指数级增长。在庞大算力缺口与供应链自主可控趋势的共振下,国内算力基础设施正加速向国产底座倾斜:寒武纪:作为国内AI算力龙头,其AI加速卡在推理侧具备较高性价比,直接受益于各大智算中心为应对“智能体”海量部署而掀起的扩容建设潮。海光信息:其高端CPU与DCU协处理器生态兼容性强,高度契合了服务器端复杂的逻辑调度与高并发海量数据的处理需求。云天励飞:依托自研推理芯片与天书大模型的软硬协同,深度适配DeepSeek等国产头部开源模型。构建了高性价比的推理集群,成为推动AIAgent实现低成本、低延迟物理世界落地的核心算力受益者。中国长城:作为信创算力主力军,其基于国产CPU打造的服务器整机,为企业级智能体(如政务、金融Agent)的安全、私有化部署提供了关键的硬件底座。龙芯中科:凭借完全自主的LoongArch指令集,构建了较深的底层安全护城河。随着智能体向AIPC和边缘设备下沉,龙芯是“端侧智能体”实现物理隔离与自主可控的关键。禾盛新材:通过战略投资AI芯片企业熠知电子,推动ARM服务器CPU研发,并推出对标英伟达Grace架构的AICPU产品。天数智芯:国内少数实现通用GPU量产与商业化的AI算力厂商之一,通过“天垓”训练GPU与“智铠”推理GPU构建国产AI算力底座,是中国推进自主通用GPU和大模型算力国产化的重要力量。壁仞科技:国产高端通用GPU代表厂商之一,专注数据中心AI训练与推理算力,其BR100系列GPU基于自主“壁立仞”架构,性能可以对标英伟达A100/H100,构建国产大模型训练与高性能计算的算力底座。截至2026年2月2日,OpenClaw在代码托管平台GitHub上的星标数量已超过13万个,官网累计访问量突破200万人次,成为近期增长最快的开源技术项目之一。以及近期出现的“AI-only社区”如Moltbook,该平台在较短时间内聚集了百万个代理账号规模,这类交互天然对应更高的请求密度与更频繁的API触发。其最直接的外显变量是API调用频次与token吞吐的阶跃式抬升。在OpenClaw创始人PeterSteinberger的力荐下,国内AI独角兽MiniMax旗下擅长长文本与逻辑推理的M2.1模型被成功带火。在传统对话范式下,单次交互仅需少数几次模型调用;但在工作流范式下,一个任务往往横跨计划、检索、工具调用、校验纠错及外部系统写入等多个阶段。这导致模型调用频率、上下文长度及中间信息的复杂程度倍增。多步推理与多轮工具调用天然带来“多回合上下文”,同时重试与自纠错会额外产生无效token。相较基础聊天,面向复杂任务的Agent服务可能会消耗数十倍多的token。因此“模型的单位成本×单位产出”就变成了Agent类产品能否规模化落地的“生死线”——因为在执行任务时,多轮推理与工具协同将会把成本线性放大。正因如此,OpenClaw的创始人会直言推荐MiniMax,其M2.1模型的“兼具效率与成本的优势、长文本能力强、推理与编程能力”的特点符合当下众多用户的需兼具效率与成本:M2.1模型旨在通过显著的成本优势解决当前开发者在自动化编程中面临的高昂token成本痛点,其定价体系约为ClaudeSonnet的8%。且CodingPlan创新性地引入“每5小时重置额度”的高频刷新机制,打破了行业通用的按天或按月限额模式,释放了高频重度开发场景下的生产力。计费模式上,不同于底层大模型厂商通用的token按量计费(Pay-as-you-go)逻辑,公司转而采用分层月度订阅制。长文本能力强:真实的工作流里,持续演进的上下文通常包含工具调用、历史即读更长的文档、容纳更多中间结果、减少因截断导致的逻辑断裂。推理与编程能力:在OpenClaw这种强调自动化执行与纠错闭环的产品里,模型被用于写代码、改代码、做预计、做校验。M2.1在推理与编程能力上的“够用且性价比较高”,使它成为最适合被放进生产系统、被高频调用的选择。在Agent时代,“谁更聪明”固然重要,但更重要的是“谁能以更低成本把强能力变成高频可用的生产力”,我们认为这是MiniMax的优势所在。Agent进入办公与生产场景后,输入不再主要来自纯文本,而大量来自截图、PDF、表格、图表、界面元素等视觉信息。在OpenClaw这种“能执行”的工作流里,用户不仅输入结构化文本,同时也伴随着截图、网页界面、报错弹窗、表格/图表或PDF页面等。MiniMax的多模态能力辅助Agent更好地理解界面、提取关键信息、输出可执行的步骤/代码、再用截图回读做校验纠错。这让OpenClaw可以做“视觉驱动的自动化”:例如识别表格字段后自动填表、读报错截图后定位原因并改脚本、从图表中抽数并写入报告、对比前后截图确认任务是否真正完成等等。MiniMax凭借自己的多模态能力,能更好的完成服务的闭环、减少人工转述、快速纠错,达到更强的可交付性。图3:OpenClaw创始人发文推荐MiniMax图4:MiniMaxM2系列模型在AI编程的市占率已超15%(2026年4月7日)我们认为,OpenClaw的广受欢迎标志着AI应用正式从“对话式Chat”向较高的部署门槛一度限制了其受众圈层。以智谱、MiniMax、月之暗面(Kimi)为代表的国产大模型“新势力”,凭借敏锐的商业嗅觉,率先完成在OpenClaw生态中的产品化落子。我们预计,这种以“开箱即用”或“深度嵌入工作流”为核心的战略布局,不仅将在短期内通过Agent海量的Token调用带动营收指数级增长,更将在长期助力模型厂构建基于数据飞轮与较高迁移成本的深厚护城河。3.2.4产业布局跟踪:打破部署壁垒,实现Agent平权与工作流深面对原生OpenClaw动辄需要配置Node.js环境、调试终端与各类APIKey的极高门槛,国产大模型厂商精准切入痛点,以各自差异化的产品路径完成了从“底层模型提供商”向“AI基础设施运营商”的华丽转身。月之暗面(KimiKimiClaw打造云端全托管模式,抢占移动与社交生态我们观察到,Kimi近期推出的KimiClaw主打“零门槛”的云端托管方案。依托其原生大模型能力,彻底免去了用户的本地算力与服务器配置负担,实现了7×24小时的云端待机。Kimi尝试在OpenClaw生态中提供Agent服务,用户仅凭手机发送指令即可远程操控智能体执行全网信息抓取、总结与定时任务。我们认为,KimiClaw成功将复杂的Agent工具转化为大众消费级的“口袋助理”,在C端确立了较强的先发流量优势。智谱AI:AutoClaw重塑本地生态,深度赋能腾讯WorkBuddy协同网络智谱瞄准了对数据隐私与深度电脑操控有强诉求的本地化办公与企业级协同场景。除了推进本地版桌面应用AutoClaw之外,我们注意到,智谱的底层能力正深度融入更为广阔的互联网生态,例如全面兼容并赋能腾讯全新推出的全场景AI智能体WorkBuddy。WorkBuddy目前已深度支持OpenClaw体系的各项Skills,不仅能每天在后台自动生成日报、追踪竞品信息与整理会议纪要,更实现了在微信及企业微信中的一键直连。我们预计,通过搭载这类具备强社交和协同属性的云端工作流,智谱及相关生态不仅成功规避了纯本地化部署可能面临的安全合规限制,更以较低的门槛将AI算力无缝渗透至千行百业的日常办公链条中。MiniMax:切入软硬一体化,携手绿联重塑P端创作人私有云工作流MiniMax在此次OpenClaw浪潮中,除了聚焦代码与开发者生态,更具前瞻性地切入了高价值的P端(专业端)创作人群体。我们观察到,MiniMax已与绿联科技达成深度战略合作,双方联合首发了原生内嵌于绿联NAS私有云UGOSPro应用中心的OpenClaw应用。相比过去极客们繁琐的手动部署配置,P端创作者如今无需申请API密钥、无需进行代码级环境配置,仅需一键安装即可开箱即用。我们预计,MiniMax通过与绿联NAS硬件的深度绑定,精准卡位了创作者海量私有数据(如超高清视频素材、庞大图库、机密文档)的处理入口,开辟了一条“软硬一体+私有云AI”的差异化商业变现通途。图6:腾讯推出的Qclaw产品资料来源:腾讯官网图8:腾讯推出的WorkBuddy产品资料来源:腾讯官网图7:腾讯推出的SkillHub仓库资料来源:腾讯官网图9:MiniMax推出的MaxClaw产品图10:月之暗面推出的KimiClaw产品资料来源:月之暗面官网图12:绿联科技推出的原生内嵌MiniMax大模型的NAS产品资料来源:绿联科技官网图11:智谱推出的AutoClaw产品资料来源:智谱官网国产大模型厂在此次生态战中的前瞻布局,正为其带来直接的财务回报与品牌溢价的双重收益,各项核心商业指标均呈现出跃迁式增长。意图执行替代单次问答,Token消耗量跃迁驱动ARR高增传统Chat主要对应单轮或少轮文本生成,普通用户日均token消耗通常仅处于数千至数万量级;而在Agent框架下,任务拆解、检索、工具调用与多轮纠错会在后台形成连续调用闭环,token消耗可较传统聊天放大数倍至数十倍。结合公开API定价与开发者账单案例估算,复杂Agent自动化任务消耗上百美元并非罕见。这种类似“通水通电”后的基建级消耗跃迁,直接带动了模型厂营收的快速增长。受到OpenClaw生态等复杂应用刺激,MiniMax的商业化进程大幅超预期,2026年2月公司ARR(年度经常性收入)已超过1.5亿美元;同时,核心M2系列文本模型的单日平均Token消耗量在2026年2月已达到2025年12月的6倍以上。同理,智谱自发布新一代模型并深化Agent与代码生态以来,截至2026年3月31日MaaSAPI平台实现ARR17亿元复杂场景试炼,模型底层能力收获全球瞩目与认可在OpenClaw所代表的复杂Agent场景下,MiniMax、智谱和Kimi的大模型在coding、tool-calling与Agenticbenchmark上均处于国内第一梯队,并已进入OpenClaw等开发者生态的主流模型序列。我们认为,强大的底层Agent能力让国产大模型在真刀真枪的复杂工作流中获得了实质性的业务背书,完成了从单纯的“低价平替”向“核心生产力工具”的品牌升维。径展望未来,我们认为智谱与MiniMax等厂商在布局工作流中攫取的不仅仅是短期的流量与ARR指数级跃迁,更是在深层次上构筑了难以被轻易跨越的长期产业护城河:构筑“意图-行动”数据飞轮跃迁,拉开模型代际差距大模型的下一阶段能力跃升,高度依赖高质量的系统级行动轨迹数据(ActionTrajectory)。我们预计,通过与WorkBuddy协作网络、绿联NAS私有云等高频核心工作流的深度绑定,模型厂商每天都能海量接收用户真实的操作系统级和私有云端交互数据。每一次失败的工具调用、每一个用户中途介入纠正的动作,都将成为高价值的强化学习语料。因此我们推断,先发者将率先跑通“真实Agent任务下发-模型执行-结果反馈-模型微调升级”的数据飞轮跃迁,在系统级自动化能力上形成对后来者的数据降维打击。较高的生态锁定与用户迁移成本我们预计,不同于随时可以一键关闭并切换的对话网页,随着Agent系统逐步嵌入企业工作流并连接多种业务系统,用户在平台上构建的自动化流程和技能配置会形成工作流(workflow)锁定,从而提高系统迁移成本。同时,随着AI软件承担越来越多真实业务任务,其商业模式也从传统席位收费模式SaaS向基于结果/价值收费模式转变,即客户为Agent创造的价值或效率付费。我们认为,这种与P端创作人数字资产及B端企业核心业务流的强绑定属性,赋予了智谱和MiniMax的产品较高的迁移壁垒。先发者一旦占领了核心工作流,后来者即便通过大幅降价也较难撬动这部分高价值存量用户。商业模式与定价权的升维:迈向Agent-as-a-Service的高毛利时代率先占据核心节点位置的模型厂商,有望成功完成自身商业模式的进化。在此逻辑下,无论是智谱赋能企业级协同的SaaS服务,还是MiniMax在软硬一体化中的AI增值服务,其定价体系有望不再受制于算力成本的无底线内卷。模型厂或将能够基于“为用户节省的工作时间”与“直接创造的生产力增量”进行溢价收费。我们预计,凭借着在自动化工作流中不可替代的枢纽地位,国产头部大模型厂商有望掌握更强的市场定价权,从而在未来保持稳健的高毛利水平与充沛的自我造血当我们剥开OpenClaw“开箱即用”的产品外衣,探究其真正能在复杂办公与研发场景中落地的第一性原理时,我们发现OpenClaw是一个自托管AIAgent框架,通过工具调用和代码执行将大模型转化为能够执行真实任务的自动化助手。OpenClaw的核心技术支撑究竟是什么?●工程层的“降本增效”依赖上下文分离与Skills插拔:我们认为,将模型的“百步规划”写入本地Markdown文件,清空上下文后再逐行读取执行,这一机制是OpenClaw得以迅速被采纳的“神来之笔”。它巧妙地绕开了当前大模型原生上下文窗口的显存限制与长文本“迷失”问题(LostintheMiddle使得在消费级PC甚至移动端运行近乎无限步骤的Agent成为可能。同时,可插拔的Skills技术打破了传统Agent的封闭生态。●底层内核的“基石”依然是系统级代码操控与DOM解析:我们预计,仅有工程框架远远不够,OpenClaw能否真正在办公场景中可用,核心取决于基座模型能否将人类的自然语言,精准转化为对屏幕坐标的映射、对复杂浏览器DOM(文档对象模型)的解析,以及对底层系统API的调用。简而言之,OpenClaw是一个精妙的外壳,而真正驱动这个外壳在桌面和网页上“穿梭执行”的引擎,是模型高水准的代码生成与逻辑推理能力。底层逻辑溯源:为何Coding能力是Claw类办公场景的核心支撑?在上述逻辑下,我们就可以清晰地解释,为何智谱、MiniMax和Kimi能在OpenClaw生态中实现对部分大厂的弯道超车。我们预计,Coding能力并不是单一的“写代码”技能,而是大模型逻辑链条最严密、结构化数据处理能力最强、指令遵循最严格的体现。●办公场景本质上是代码级自动化的映射:在Claw类办公场景中,无论是操作Excel处理财务数据、跨网页抓取行业报告,还是调用ERP系统等,Agent在后台执行的本质都是一段段临时生成的Python或JavaScript脚本。只有具备顶尖Coding底座的模型,才能保证这些脚本在生成和执行过程中具备极高的鲁棒性与任务完成率。●智谱与MiniMax在Coding底座的先发壁垒:我们观察到,智谱和MiniMax等“新势力”厂商,在研发初期便敏锐对标了海外的Anthropic(其以Claude的卓越代码能力著称将大量高质量的代码语料(CodeCorpus)和复杂的研发工程数据注入基座模型。例如智谱在CodeGeeX等模型上的长期深耕,以及MiniMax在复杂逻辑处理上的持续投入,使其模型原生具备了较强的代码生成与Agent规划能力。这种以Coding为核心的底层基因,使其在对接OpenClaw框架时,呈现出超越通用问答模型的稳定性和任务完成率。聚焦Coding与Agent的深层动因——商业与技术的双轨共振。我们认为,国内大模型“新势力”(智谱、MiniMax、月之暗面等)与部分传统大厂在Claw赛道上拉开身位,其核心源于早期战略选择的巨大分歧。这种向Coding和Agent倾斜的战略聚焦,源于商业化落地可行性与技术研发赛道差异两方面的深刻洞察:●商业化维度:生产力场景的“蓝海”。我们预计,通用大模型长期聚焦的C端本地生活、情感陪伴或娱乐问答等场景,本质上是存量红海的流量重分配,用户付费意愿薄弱,缺乏可持续的商业飞轮。相反,以Coding和Agent为核心的生产力场景却是蓝海市场。对于企业和P端创作者而言,工具的价值直接挂钩于“降本增效”的ROI。当AI被嵌入企业核心工作流、并能持续创造可量化ROI时,高频token消耗更容易转化为持续订阅或API收入。●技术研发维度:Coding大模型与通用语言大模型在数据配方(DataMixture)、预训练目标、强化学习策略甚至模型架构上都存在显著差异。过去我们认为部分传统大厂陷入了C端AIBot(如通用知识问答、文案生成)的“百模大战”中,其研发资源不可避免地向通用能力倾斜。而Coding模型研发的滞后,意味着在面对OpenClaw这种极依赖代码逻辑的全新生态时,即便大厂拥有算力优势,也无法在短期内补齐底层模型能力的短板。我们预计,智谱、MiniMax等厂商凭借在Coding和Agent架构上长达一到两年的先发摸索,已经积累了大量的高质量微调数据与人类反馈(RLHF)经验。后续追赶者若想在这条差异化的“科技树”上重新攀爬,需要投入更多时间与算力资源,这种技术的时间壁垒,在短期内较难被资本和算力规模简单填平。“新势力”模型厂商:架构造就的成本与效率优势在不断上升。MiniMax在2023年就集中资源攻坚MoE架构,2024年初发布的abab6.0是亚洲首个MoE架构的商业化文本模型。传统的稠密模型(DenseModel)随着参数量增长,推理成本呈线性上升,难以支撑C端大规模免费应用或B端高频调用。MoE架构可以凭借“大参数量、小激活量”(如M2模型230B参数仅激活10B)的特性,在保证模型智力(由总参数量决定)的同时,将推理成本和延迟显著降低。2025年10月,公司推出并开源了MiniMaxM2,这是专为Agent和代码相关应用设计的最新模型。M2通过利用其进一步优化过的MoE(混合专家)架构,以相比于M1显著更低的成本和更快的推理速度,提供高性能模型能力。一经发布,M2便在ArtificialAnalysis智能指数的开源模型中位列全球第一,实现中国大模型企业在代码能力上的重大突破。后续公司对外发布旗舰级Coding&Agent模型M2.1,该模型在Multi-SWE-bench上以仅10B激活参数取得49.4%成绩、实现全球SOTA。进一步验证了公司并非“单一多模态厂商”,而是集语音、视频、coding、Agent一体的综合性技术厂商。MiniMax以MoE架构为技术基础,形成集语音、视频、coding、Agent于一体的技术能力,其编程Agent类产品成本仅为竞争对手的8%,在Coding和Agent架构的研发中形成了显著的技术积累与时间壁图13:衡量多语言软件工程能力的Muti-SWE-bench榜单中拿下SOTA图14:MiniMaxTokens调用量(2026年4月7日智谱已建立全面的先进AI模型矩阵,在语言、多模态、智能体及代码能力方面展示出行业领先的性能。公司的模型矩阵囊括有端侧小模型、经济型模型和千亿参数的旗舰大模型等各种参数规模,可以针对性地解决特定客户需求。该矩阵提供全面功能支持,涵盖对话、通用智能体、代码生成、图像理解、文生图╱视频、语音交互等各类功能,实现对各类模型应用场景的充分覆盖。根据弗若斯特沙利文的资料,依据2025年7月进行的12项业界标准基准检验的评估结果,GLM-4.5在全球排名第三、在中国跃居第一及全球开源模型位居榜首。公司通过MaaS提供商业化服务,实现“放大+环路”的增长飞轮。公司的模型及智能体旨在跨多样化硬件、跨应用场景、跨业务工作流程无缝进行工具调用并执行复杂任务,支持AI原生的多模态复杂对话及深度推理。公司与基础设施业务合作伙伴携手共同设计先进的算力基础设施,使公司的MaaS平台能够提供集成计算、网络、训练通信以及推理加速能力。MaaS商业模式特有的“环路生态”将显著优化模型的训练策略,进而带动模型升级。得益于公司MaaS平台服务的开放架构及先发优势,公司形成了链接算力资源提供商、智能设备制造商、机构客户、开发者及终端用户的繁荣社区,积累了丰富的深度洞察和多样化的真实场景应用需求,可以帮助公司更好地理解人们在不同应用场景下如何实际运用并受惠于公司的人工智能,从而有针对性的优化公司的训练策略。这构建了一个良性的飞轮效应:客户应用的持续发展,源源不断地带来更多高质量反馈,驱动模型持续优化,进一步增强模型性能,吸引更多机构客户和应用机会,自我强化的循环会不断强化平台的核心竞争力。图15:智谱的生态闭环资料来源:智谱聆讯后资料集(第一次呈交)图16:智谱Tokens调用量(2026年4月7日)2026年3月8日,腾讯正式向个人用户开放QQ机器人官方接入OpenClaw功能。用户通过手机QQ扫码登录后,点击一次即可创建机器人,单个QQ号最多可创建5个。创建后通过三条预设指令快速完成与OpenClaw的绑定,支持Markdown、图片、语音、文件等多媒体交互。同期,小米宣布开启手机移动端Agent产品Xiaomimiclaw的小范围内测,将这场原本在云端产生的算力争夺战直接“烧到了“手机和“人车家”的智能终端。我们认为,这场OpenClaw引燃的“龙虾热“标志着具备终端键鼠接管与复杂任务自主执行能力的开源本地优先AIAgent框架OpenClaw,正系统性重塑云计算的供需结构。云厂商的商业逻辑已从单纯的“底层算力租赁”跃升为“Agent数字员工的工位提供商”。通过一键部署和价格补贴抢占应用入口,云厂商正逐步掌控下一代AI应用的底层分发权。OpenClaw这类执行中枢将AI算力消耗从“Chatbot式的对话请求”转变为“全天候的持续运行”。相较单轮对话,Agent任务对应的Tokens、联网搜索、长期记忆、状态存储和长连接占用都会更高,单位用户的云消耗将明显抬升。这带来两方面的变化:底层算力需求呈指数级增长:云厂商推广与社区部署案例显示,随着OpenClaw在国内快速出圈,2核2G、2核4G等轻量应用服务器成为最主流的承载规格之一,云端部署需求明显抬升;这一轮新增需求更偏向盘活低配CPU实例、基础存储与带宽资源。供给端的“一键部署”与分发入口抢占:国内主流云厂商迅速跳过复杂的Docker或代码命令行部署,推出预装OpenClaw镜像的轻量服务器专属入口。例如腾讯云围绕智能体开发平台推出了明显的“拉新”优惠政策,包括“0元直领”“15,000PU/月资源点”“新人免费领取1个月免费版套餐包”等;同时,腾讯云开发者社区披露的OpenClaw线下活动出现“近千人报名”的现象,说明平台正通过价格优惠与生态活动双线推动Agent用渗透,意在将短期的高增流量转化为长期的SaaS订阅化留存。我们认为,这种卡位本质上是为了将用户的应用数据、API密钥和网络环境深度锁定在自家云生态内。因此,当前云厂商围绕OpenClaw展开的竞争,其意图在于“抢占Agent第一次上线的位置”。我们认为用户在某个云平台的首次部署,往往意味着将默认模型、技能、知识库以及未来的计费与扩容通道初步锚定在该平台,从而容易使云厂商在后续服务中占据有利位置。腾讯云的官方活动页显示,OpenClaw在ADP上可轻松完成部署,系统会自动购买服务器、初始化环境,并预置默认模型与技能;其免费体验包提供15,000PU/月,而平台计费文档也明确写明“模型调用另行计费”。即腾讯已经把OpenClaw从“模型调用”上移为“平台服务+模型调用”的双层收费对象。且腾讯云在2026年1月已将旧的Token资源包体系切换为订阅类套餐,说明Agent场景的定价单位正在从单纯Token,转向“套餐资源包+部署费+模型调用”的复我们认为,云厂商的共同逻辑逐步清晰:即先用补贴和一键部署将用户从本地安装迁到云上,后续则有望依托模型调用、插件、搜索、知识库、长期记忆及多渠道接入等增值服务,驱动用户ARPU提升。在确定的Agent“淘金热”中,云厂商作为“卖铲人”有望迎来三重价值重高确定性:基础实例的规模化变现。OpenClaw彻底打破了个人PC与云服务器的边界,将长尾低配服务器转化为Agent的“云端工位”。我们预计,这有望带动云厂商边缘计算节点的需求上升、轻量应用服务器的存量去库存,以及租金经常性收益的提升。在硬件侧,我们认为国产AI算力底座的出货量有望得到实质性支高弹性:Token调用量的非线性增长。智能体在执行端到端复杂任务时,需进行频繁的信息检索、逻辑推理与多步规划,单次任务消耗的Token数量是传统问答的数十甚至上百倍。模型层API计费收入有望迎来指数级增长,绑定头部云底座的模型厂商如MiniMax和智谱等有望迎来业务流水和数据反哺的双击。即云厂商正在把自己从“单一模型的承销商”变成“多模型的计费层”。阿里云百炼CodingPlan同时支持Qwen、Kimi、MiniMax、GLM;腾讯云ADP也深度集成GLM-5、MiniMax2.5、Kimi2.5与DeepSeek。模型厂商们在自建产品的同时,又在阿里云、腾讯云等平台中被二次分发。我们认为当模型调用、知识库、插件和部署都经由云厂商自身的平台结算时,这类同时提供“模型超市+计费平台+托管运行”的厂商的价值量通常高于只卖底层资源的IaaS厂商。长期壁垒高:AI平台与全链路工具的溢价。企业级OpenClaw的落地跨越了企业知识深度融合、安全沙箱权限管控、业务系统API打通三大门槛。云厂商通过提供高毛利率的定制化AI工作平台、企业级安全防护网络和持久化存储空间,拉开与单纯算力分销的利润差距。随着Agent走向企业场景,模型智力不是唯一考量因素,技能管理、权限管理、审计、稳定性与运维治理也同等重要。腾讯云甚至已通过插件把ADP智能体与OpenClaw智能体做成解耦连接,用于浏览器自动化等高权限复杂任务。我们预计,平台化、工具化、治理化,或将是OpenClaw对云厂商最深的长期影响,因为企业最终购买的是“可控的Agent平台”。随着技术门槛的降低,模型大厂如Kimi、MiniMax,或者小米这类硬件终端巨头与中小厂商相继推出开箱即用的OpenClaw变种产品。这一趋势将从两个维度形成对公有云基础设施的强力“反哺”:模型/终端大厂:算力洪流的直接“放大器”。模型大厂推出KimiClaw和MaxClaw或小米推出Xiaomimiclaw,其实质是接管了用户的本地硬件焦虑。用户无需自行购买服务器即可“开箱即用”。这种ToC的较简体验不仅锁定了大量用户的模型API消耗,更将其产生的较高并发请求、上下文记忆存储需求直接传导至其背后的公有云服务商。我们认为,这些大厂作为云服务商的头部客户,其端侧应用的繁荣将直接拉升底层云基础设施的负载峰值与网络扩容需求。中小厂商:垂直场景的算力分销商。以顺网科技为例,公司长期深耕网吧、电竞及云游戏等终端场景,并布局算力云、云终端等相关能力。我们认为,这类具备场景入口和终端运营基础的厂商,有望在Agent落地过程中承担垂直场景算力分发与中间层集成角色。我们预计在这一生态链中,中小厂商扮演了“算力分销商”与“中间件“的角色。他们通过向大云厂商批量采购基础资源并结合自身的边缘计算网络,将高门槛的AI能力输送给非技术人群。这不仅直接消耗了公有云的弹性计算与对象存储资源,更通过其终端场景,将大厂难以直接触达的下沉流量纳入了整体云计算的计费基本盘中。图17:顺网科技上线开箱即用的OpenClaw资料来源:顺网科技官网图18:腾讯云“OpenClaw极速部署”官方活动页资料来源:腾讯云官网图19:腾讯云部署OpenClaw计费详情资料来源:腾讯云官网2月12日,智谱在官方渠道宣布上调GLMCodingPlan订阅价格,涨幅"至少30%"。此前,海外云厂商于本月纷纷提价,如GoogleCloud在北美涨价幅度达100%,在欧洲与亚洲也同步上调;同时AWS的价格也上调了约15%。综合来看,Token需求"通胀"不仅利好云端算力,也让模型厂商拥有了议价权。图20:智谱GLMCodingPlan涨价通知资料来源:智谱官方微信公众号图21:智谱GLMCodingPlan限售公告资料来源:智谱官方微信公众号云计算时代也出现过类似的"先免费/低价再扩张",但云的计费单位很快变成CPU/存储/带宽/请求数,客户也习惯了"按量计费"。云能收费,是因为它交付的是明确的资源和SLA(服务提供商与客户签订的服务等级协议)。但当行业依旧处在"模型价格战"时,智谱却出现了涨价的信号,我们认为这意味着大模型时代的"计量单位"从流量(DAU/时长)转向Token(推理消耗而Token的消耗在越来越多场景里是核心支出项。智谱此前正因为用户增长导致算力阶段性紧张,对CodingPlan做过"限量发售"安排,这与其后续涨价形成了一个非常典型的"供需链条":需求在短期内大幅增长→资源呈现刚性约束(导致限流/限量)→涨价。当高峰期拥堵与资源紧张出现时,涨价是一种让模型厂筛选需求的机制,比"无差别限流"更能保护用户的体验。云计算逐步变为"卖资源",而大模型厂商化身"卖Token燃料+卖成果"。智谱GLMCodingPlan的涨价折射的是产业定价逻辑的改变:当推理消耗变成生产资料,模型厂商有机会把"算力稀缺"通过分层定价与订阅化产品转化为毛利与现金流。图22:GoogleCloud涨价通知资料来源:谷歌官网类龙虾的全场景个人助理Agent正在加速落地,7x24h持续运行AI带来海量Tokens需求。据网易微信公众号,以有道龙虾为例,该类产品7×24小时待命,能够帮用户完成日常办公中的各类事务——数据分析、制作PPT、生成视频、撰写文档、搜索信息、收发邮件、定时任务,以及更多;其核心是Cowork模式,它能在本地或沙箱环境中执行工具、操作文件、运行命令,一切都在用户的监督下自主完成;此外,其支持通过钉钉、飞书等IM平台远程触发,让用户在手机上也能随时指挥Agent工作。图23:有道龙虾整理文件夹资料来源:网易微信公众号图24:有道龙虾使用飞书/钉钉远程控制资料来源:网易微信公众号伴随智谱、MiniMax等国产大模型的突破,叠加我国稳定、低价的电力等基础设施成本,我国Tokens出海+"龙虾"两大增长引擎全面开启,伴随涨价趋势,我国云计算产业或将迎来重大拐点,有望迎来收入与利润同时高增催化:收入端,云计算需求持续提升,以顺网科技为代表的云厂商已经开始披露强劲的云业务激励目标。顺网科技发布2026年股权激励计划,若100%完成度则2026、2027年云业务收入目标值分别达到3.2亿元、6.4亿元,公司乐观预期下有望实现高速增长。利润端,结合前期云涨价趋势,以优刻得为代表的云厂商逐步走出云价格战,进入到盈利阶段。优刻得发布2025年业绩快报,2025单Q4利润转正,2025年全年毛利率达到25.8%,连续五年持续提升顺利迈过盈利门槛。图25:顺网科技2026年股权激励考核目标资料来源:顺网科技公司公告图26:优刻得公司毛利率变化资料来源:优刻得微信公众号4投资建议建议围绕“Agent
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2026年茶饮店包装设计合同协议
- 运城护理职业学院《数字贸易学》2025-2026学年期末试卷
- 福建卫生职业技术学院《劳动关系与劳动法》2025-2026学年期末试卷
- 蚌埠城市轨道交通职业学院《电工电子技术》2025-2026学年期末试卷
- 浙江省杭州市富阳区2026年九年级下学期语文期中抽测试卷附答案
- 2026年人教版小学一年级语文上册单元同步基础练习卷含答案
- 2026年人教版小学四年级语文上册说明文语言准确性分析卷含答案
- 深度解析(2026)《GBT 4325.3-2013钼化学分析方法 第3部分:铋量的测定 原子荧光光谱法》
- 深度解析(2026)《GBT 4095-2005商用汽车辐板式车轮在轮毂上的安装尺寸》
- 2026年人教版小学二年级语文上册缩写句子简单练习卷含答案
- 区块链金融(第二版)课件 项目三 区块链赋能数字银行业务
- 英语试卷+答案广东省江门市2026届普通高中高三调研测试(江门一模)(.5-.6)
- 2026年见证取样员试卷含答案详解【培优】
- 2025-2026学年苏教版小学四年级数学下册教学计划及进度表
- (新教材)2026人教版三年级下册数学 3.1 多边形 教学课件
- 《管道用哈夫节施工作业技术规程》
- 宝钢采购管理制度
- 2026年高处作业吊篮试题及答案
- 公安机关人民警察内务条令试题库(附答案)
- 水处理厂卫生管理制度
- 正确定位国有企业纪检监察工作的价值取向
评论
0/150
提交评论