计算机行业GenAI系列报告之65:AI+Infra应用渗透下的又一卖铲人_第1页
计算机行业GenAI系列报告之65:AI+Infra应用渗透下的又一卖铲人_第2页
计算机行业GenAI系列报告之65:AI+Infra应用渗透下的又一卖铲人_第3页
计算机行业GenAI系列报告之65:AI+Infra应用渗透下的又一卖铲人_第4页
计算机行业GenAI系列报告之65:AI+Infra应用渗透下的又一卖铲人_第5页
已阅读5页,还剩21页未读 继续免费阅读

付费下载

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

目录AIinfra:应用渗透下的又一卖铲人 6算力度是推理盈水平键 7据类Infra于应用发 12RAG类AI应用透,向量数据库需求提升 13入向量数据库,数据湖仓工具向应用层拓展 14GPU成为数据控制中心,数据库+存储技术升级 23国内地部色,涌新需求 25重点司估表 28风险示 28图表目录图1:AIinfra包含哪些核心环节 6图2:CY25Q3海外CSP厂商云业务毛利率处于20-45%区间 9图3:Aegaeontoken粒度调度、阶段化计算、缓存复用、弹性扩缩容 10图4:推理服务毛利率与芯片单卡吞吐敏感性分析 10图5:OpenRouter统计的消耗量自2024Q4起快速增长 12图6:Gartner预计企业RAG技术采用率25年将达68% 13图7:向量数据库在RAG类AI应用推理的流程 13图8:海外数据厂商收入增速 16图9:MongoDB季度营收及增速 16图10:MongoDB毛利润率情况 16图11:MongoDBDBEngine向量数据库排名第一 17图12:MongoDBDBEngine向量数据库排名第一 17图13:Retool的调查中,21.1%的用户最常使用MongoDB向量数据库 17图14:HuggingFaceRTEB测评,Voyage模型霸榜 18图15:Snowflake营收及增速 22图16:SnowflakeNon-GAAP毛利率略有下降 22图17:SnowflakeNRRFY25-26稳定在125% 22图18:Snowflake的RPO呈阶段性扩张趋势 22图19:FY26Q3Snowflake客户数量达到12621 22图20:Snowflake持续拓展优质客户 22图21:英伟达GPU直连SSD的硬件设计 24图22:H100的IO调度效率是Gen5IntelXeonPlatinumCPU的2倍以上24图23:英方软件数据复制和同步产品在AI应用的业务逻辑 图24:深信服的AIInfra工具提供从一体机-MLops-应用开发的一站式平台 26表1:25Q1-Q3美股AI软件收入增速(%)2C应用>AIinfra>2B应用 7表2:国内模型收费价格较海外更低,成本更敏感 7表3:大厂自研算力调度平台能力 9表4:模型推理服务收入假设 11表5:推理服务毛利率与芯片单卡吞吐敏感性分析 11表6:主要的向量数据库及其特点 14表7:Snowflake产品矩阵 19表8:Databricks、Snowflake、MongoDB定位客群有所差异 23表9:重点公司估值表 28AIinfra:应用渗透下的又一卖铲人AIInfra指的是专门为AI工作负载的设计、构建、管理和优化的底层硬件与软件系统。它的核心目标是高效、大规模地完成AI模型的训练和推理任务。如果将开发大模型比做是造房子,那AIInfra就是工具箱,包括构建、部署和维护人工智能(AI)系统所需的硬件、软件和服务的组合。一个完整的AI基础设施通常包含:算力层:GPU、TPU、AIASIC、推理芯片等;存储层:高性能分布式存储、对象存储、NVMeSSD;3)网络层:高带宽低延迟互连(InfiniBand、NVLink、RoCE);软件与中间件层:分布式训练框架(PyTorchDDP、DeepSpeed、Horovod)、MLOps工具链(Kubeflow、MLflow);运维与管理层:Kubernetes集群调度、资源监控、自动扩缩容。图1:AIinfra包含哪些核心环节Coting(技术博客AIInfra目标是高效、大规模地完成AI1)算力管理层:主要提供计算、存储、网络、安全等基础资源和服务;2)模型管理层:提供模型开发和应用所需的各种基础工具和组件,主要包括数据治理、模型部署、训练、推理、精调、集成管理等;3)应用管理层:主要提供资源管理、运营管理、运维管理等运营能力。目前算力管理层占主导地位,2024年市场份额达64.6%AI应用正从探索走向深度集成。海外AI软件收入增速看,AIinfra软件公司收入增速平均值高于2BAI应用。因为AI投资遵循算力-infra软件-应用的顺序,Infra软件无论在模型训练、推理和AI应用部署中均有作用,但由于SurroundedbyGs,意为被巨头们(Google、GPT/openAI、GPU/Nvidia)包围,在训练占据主流时期,其商业机会暂未显现。2024H2模型推理量快速增加,部分领域AI应用也开始渗透,我们认为AIinfra软件的商业机会真正来临。类别名称2024Q12024Q22024Q32024Q42025Q12025Q22025Q3Snowflake47.641.137.635.9类别名称2024Q12024Q22024Q32024Q42025Q12025Q22025Q3Snowflake47.641.137.635.932.930.829.9MongoDB29.034.532.831.122.317.219.0AIInfra软件DataDog26.926.826.526.124.626.427.1ElasticSearch17.517.518.218.618.317.917.4平均值(%)30.329.928.827.924.523.123.4CrowdStrike42.039.237.836.333.032.331.0ServiceNow24.223.222.822.418.620.521.0Salesforce11.311.411.311.210.79.59.12BAI应用SAP8.18.99.19.512.110.59.3Intuit14.712.912.413.310.213.914.5平均值(%)20.019.118.718.616.917.317.0Figma48.446.143.341.3类2CAI应用DuolingoUnity44.9-8.042.6-12.041.7-14.140.8-17.137.7-5.539.6-3.740.2-0.7平均值(%)18.415.313.824.026.126.426.9算力调度是模型推理盈利水平的关键异构算力集群趋势下,算力管理和调度类的软件刚需性提升。当前国内模型厂商、云厂商等推理算力采用芯片较为多元,包括华为、寒武纪、海光信息等,一般会采用异构集群来支持。由于各芯片的底层指令集、硬件架构和软件栈均为自有,不互相兼容,在其上搭建一个软件隔绝硬件差异,就成为了推理服务和应用的刚需。Deepseek之后,性价比成为了国内模型的重要特性之一。在国内模型竞争背景下,Deepseek的较低定价,锚定了国内其他大模型的定价,使其始终存在降低成本的需求。在这种背景下,算力调度的能力成为大模型厂商、MaaS厂商盈利的关键。因此算力管理、调度软件往往由云厂或MaaS公司自研。模型名称输入价格(元/百万tokens)输出价格(元/百万tokens)DeepseekV3.2官方2(缓存未命中);0.2(缓存命中)模型名称输入价格(元/百万tokens)输出价格(元/百万tokens)DeepseekV3.2官方2(缓存未命中);0.2(缓存命中)3火山引擎KimiK2Thinking阿里Qwen-turbo阿里云百度ERNIE-Lite2(缓存未命中);0.4(缓存命中)1(批量、未命中);0.4(批量、命中)4(缓存未命中);1(缓存命中)0.30(在线推理);1.2(批量推理)84(批量)163(思考模式);0.6(非思考模式)0(在线推理);2.4(批量推理)字节豆包Seed-输入长度非批量批量输入长度非批量批量1.6-thinking[0,32]千tokens0.8(缓存未命中)0.4(缓存未命[0,32]千tokens840.16(缓存命中)中)0.16(缓存命中)(32,128]千1.2(缓存未命中)0.6(缓存未命(32,128]千168tokens0.16(缓存命中)中)tokens0.16(缓存命中)(128,256]千2.4(缓存未命中)1.2(缓存未命(128,256]千2412tokens0.16(缓存命中)中)tokens0.16(缓存命中)模型名称GoogleGemini3ProPreview(high)输入价格(美元/百万tokens)输出价格(美元/百万tokens)输入长度价格(美元/百万tokens)输入长度价格(美元/百万tokens)<20万个token2<20万个token12>20万个token4>20万个token18ClaudeOpus4.5GPT-5.1(high)GPT-5(high)GPT-5.25美元(批处理半价)1.25();0.125()1.25();0.125()1.75();0.175()25美元(批处理半价)10美元10美元14美元Deepseek官网,阿里云官网,火山引擎官网,谷歌官网,openAI官网,Anthropic官网,申万宏源研究主要云平台和模型厂商都推出了算力调度软件。典型产品包括华为Flex:ai、阿里巴巴Aegaeon、字节跳动的Gödel资源管理和调度系统等。但不同厂商推出产品的目的有差异:Flex:aiRun:ai而阿里巴巴、字节跳动等则是1)提升云用户体验;2)润率。而实际上,海外大厂云业务的毛利率区间也较为宽泛,CY25Q3,微软、亚马逊、谷歌三大云厂云业务毛利率处于20%~45%区间。当前毛利率差异主要来自业务结构,但我们认为未来AI大模型云收入持续增加的过程中,硬件调度能力对其毛利率的影响至关重要。图2:CY25Q3外CSP厂商业毛率于区间 43.3%34.6%43.3%34.6%23.7%40.0%30.0%20.0%10.0%0.0%

CY23Q1CY23Q2CY23Q3CY23Q4CY24Q1CY24Q2CY24Q3CY24Q4CY25Q1CY25Q2CY25Q3谷歌云 亚马逊AWS 微软智能云Bloomberg注:微软显著高主要由于微软智能云收入中包含Office365等高毛利业务,亚马逊AWS、谷歌云主要为IaaS类业务收入2511Flex:ai,Flex:ai在发布后同步开源在魔擎社区中。华为Flex:ai是基于Kubernetes容器编排平台构建的XPU池化与调度软件。Flex:ai能够实现异构算力的调度。英伟达、昇腾及其他第三方算力资源,Flex:ai都能够统一管理和高效利用,有效屏蔽不同算力硬件之间的差异。Flex:ai芯片级算力切分:华为Flex:ai将单张GPU/NPU算力卡切分为多份虚拟算力单元,切分粒度精准至10%,实现单卡同时承载多个AI工作负载,在无法充分利用整卡算力的AI工作负载场景下,算力资源平均利用率可提升30%。厂商特点华为厂商特点华为Flex:ai可异构调度,提升算力使用效率30%阿里巴巴AegaeonToken级调度,单GPU支持7个模型共享,GPU用量减少82%(1192张—>213张)英伟达Run:aiGPU利用率提升5倍Deepseek自研成本利润率545%华为官网,澎湃新闻,论文《Aegaeon:EffectiveGPUPoolingforConcurrentLLMServingontheMarket无独有偶,阿里Aegaeon也是token级的模型调度神器。Aegaeon通过token粒度的动态调度,实现多模型共享GPU资源。传统多模型服务中,GPU资源要么被单个模型独占,要么在模型切换时产生巨大性能损耗。而Aegaeon创造性地将调度粒度从模型级下沉到token级(token是AI处理文本的基本单位),就像快递分拣系统从按批次分拣升级为按单个包裹实时调度。图3:Aegaeontoken粒度调度、阶段化计算、缓存复用、弹性扩缩容Aegaeon:EffectiveGPUPoolingforConcurrentLLMServingontheMarket》,研究阿里Aegaeon将10个模型所需GPU数量从1192个锐减至213个,资源节约率高达82%。通过预加载模型参数、优化显存调度等技术,将模型切换开销降低,解决了精细调度带来的性能损耗问题。推理算力调度平台优化的核心指标是单卡吞吐,直接影响推理服务毛利率。单卡吞吐越高,硬件资源越能被充分使用。假设模型推理服务厂商使用等效。根据我们测算,在单10亿查询量下,若使用H80010%2-7个百分点。图4:推理服务毛利率与芯片单卡吞吐敏感性分析85%80%75%70%65%60%55%50%0.6 0.7 0.8 0.9 1 1.1 1.2 1.3 1.4研究注:具体假设和计算过程间见表4、表5日查询次数(亿次)10日查询次数(亿次)10Prefill阶段单价(元/百万token)4tokens/单次查询300Decode阶段单价(元/百万token)16tokens/单次查询200日收入(万元)440年收入(亿元)16.06峰值并发查询占比20%峰值并发查询(亿次)2峰值并发处理tokensPrefill(tokens/s)16666667decode(tokens/s)11111111Deepseek官网注:单价假设参考DeepseekV3价格单卡吞吐倍数假设0.6x0.7x0.8x单卡吞吐倍数假设0.6x0.7x0.8x0.9x1x1.1x1.2x1.3x1.4xprefill4422515958966633737081078844958110318decode88810361184133214801628177619242072所需卡数(英伟达H800)Prefill(tokens/s)张)376932312827251322612056188517401615125131072593848342750868256256577553631628213956122111085497698881814175156978()TCO(年固定成本(亿元)15015015015015015015015015038.1632.7128.6225.4422.9020.8119.0817.6116.357.66.55.75.14.64.23.83.53.3毛利率(不考虑可变成本情况下)52%59%64%68%71%74%76%78%80%(中国开发者网络,epsek官方文档注:芯片以英伟达H800为例,Prefill吞吐为7370tokens/s,Decode吞吐为1480tokens/s,参考Deepseek官方文档注:H8008卡服务器单价150万/台,假设服务器成本占算力基础设施TCO的80%,假设服务器使用寿命5年,无残值Infra先于应用爆发AI应用在快速渗透,推理AIinfra软件需求崛起。OpenRouter统计到的Token消耗10倍。Openrouter2BAI应用API接入2024年Q4开始,从OpenRouter口径统计到的各类API接入大Token消耗量持续增长。图5:OpenRouter统计的Token消耗量自2024Q4起快速增长OpenRouter(AI应用API接口网站应用部署的标准流程为:首先将训练好的模型与服务代码容器化;随后在K8s集群中部署,并配置扩缩容与负载均衡;通过API网关暴露服务;推理时,应用从特征库获取实时数据,由推理引擎处理并返回结果;最后通过监控体系保障服务稳定与模型效果。以RAG应用为例,请求会依次经过网关、检索向量数据库、拼接提示词、调用大模型服务并返回生成结果。其中所需软件工具主要包括:Docker用于将模型、环境及代码打包成容器;Kubernetes负责容器编排与资源调度;推理服务器(如TensorFlowServing、Triton或vLLM)提供高性能推理接口;API网关(如Nginx)管理外部请求;监控工具(如Prometheus)追踪服务与模型性能;特征存储或向量数据库(用于RAG等场景)提供实时数据。AI应用推理渗透的影响,率先作用在了数据层。我们观察到几个趋势:RAG风靡,向量数据库成为刚需;NoSQL+OLTP厂商存储非结构化数据(语音、文本、图像、甚至向量索引等)、实时性高,需求正在反超,通过补充向量索引能力切入向量数据库市场;数据湖、数据仓库厂商(OLAP为主)通过并购、合作方式引入AI工具迈进;IOCPUGPU,存储和向量数据库的技术需耦合升级。应用渗透,向量数据库需求提升大模型幻觉问题下,2B端RAG类应用风靡。由于1)大模型不能直接记住大量企业私有知识:例如公司内部文档、产品手册、FAQ客户知识库。这些内容通常非常多,大模型无法全部放入Prompt,也不会长期记住;2)全文搜索不能满足语义需求:传统搜索如ES、关键词搜索只根据文本匹配,而包含某个关键词不等于语义最相关;3)大模型缺乏外部知识时,容易产生幻觉(hallucination),因此RAG(增强现实检索)成为企业部署AI应用的标配。根据Gartner,2024年全球已有45%的企业在智能客服、数据分析等场景中部署RAG系统,预计到2025年这一比例将突破68%。图6:Gartner预计企业RAG技术采用率25年将达68%

图7:向量数据库在RAG类AI应用推理的流程Gartner(全球科技咨询机构 研究向量数据库是RAG的好帮手,逐渐成为刚需。向量数据库本质上是一种专门用于存储向量化表示的系统。这些向量通常来源于图像、文本、音频等多模态数据,经过嵌入模型(embedding)处理后被映射到统一的高维向量空间并存储。向量数据库的核心能力是,系统在接到查询向量时能快速返回最相似结果。这一能力源于层次图HNSW、量化IVF-PQ及DiskANN等近似最近邻算法对快和准的兼顾。在大模型时代前,向量检索就已支撑人脸识别、推荐排序、异常检测等场景;当前RAG推理需要用向量回溯长上下文或私有知识,进一步促进了向量数据库领域的发展。与传统键值库相比,这类系统不仅要管理嵌入生成、索引构建及查询调度,还必须在工程层面解决混合稠密-稀疏检索等复杂挑战,以确保在海量数据和持续写入下依旧保持高吞吐与一致性。按照开源/商用,向量数据库可分为以下几类:主流开源向量数据库:MilvusWeaviate、Qdrant等;SaaS/云厂商:Pinecone、OpensearchVectorEngine、AzureCognitiveSearch、MongoDBAtlas等;)传统数据库的向量扩展功能:PostgreSQLpgvector、Elasticsearchvectorsearch、MySQLHeatWaveVector,适合中小规模场景,不是专为大规模向量搜索设计。产品特点Milvus(最流行)专为向量搜索设计,性能极强,生态完善产品特点Milvus(最流行)专为向量搜索设计,性能极强,生态完善FAISS(Facebook)算法库,不是完整数据库,需要自己封装HNSWlib高性能近邻搜索库,索引速度强Weaviate带RESTAPI、schema、扩展插件,易用QdrantRust开发,性能稳定,支持混合搜索Vespa(雅虎)面向大规模内容检索的搜索平台PineconeSaaS向量数据库,免维护OpenSearchVectorEngineAWS生态中集成AzureCognitiveSearch与AzureAI紧密结合MongoDBAtlasVectorSearch在文档数据库上附加向量检索功能研究向量数据库主要应对海量数据+高频查询,必须依赖高性能ANN搜索。当数据量达到百万到亿级,而查询需要维持毫秒级响应时,传统的精确相似度计算已经无法满足性能需求。只有通过高性能ANN索引(如HNSW、IVF、PQ等),才能在保证较高召回率的同时,实现高QPS的实时检索能力。相比SaaS时代,AI给软件工具栈的最大影响是,数据结构从分析优先转向实时运营+分析协同。传统分析优先架构(数据仓库/湖仓一体为主)的设计目标是批量处理、事后洞察、报表输出,适配BI报表、历史趋势分析等场景,但在生成式AI、实时决策、智能交互等新需求下,趋势是:AI应用实时化:RAG、智能客服、实时推荐等场景要求毫秒级响应;数据价值即时化:LLM与智能体需要数据即服务,而非数据即报表,驱动业务自动决策;多模态数据爆发:文本、图像、音频等非结构化数据与向量嵌入成为核心数据结构。Agent也强化了对高实时性数据的需求。Agent是具备感知-决策-执行闭环的智能系统,其运行依赖三个关键能力:实时感知环境变化:Agent需要持续获取外部动态数据(如用户实时指令、业务系统的状态变更、传感器的实时反馈),并快速响应;动态自主决策:基于实时数据和预设目标,Agent需在毫秒/秒级完成决策(如智Agent的库存调整)。交互性操作:Agent的决策结果需要直接作用于业务系统(如自动下单、修改订单状态、发送通知),涉及频繁的增删改查(CRUD)综合来看,这些需求的本质是高频、小批量、低延迟的实时事务处理,这正是OLTP的核心优势。以上趋势下,OLTP+NoSQL再次风靡。海外MongoDB厂商的收入增速FY2025Q2(对应2024Q2)出现拐点,印证这一逻辑。图8:海外据商增速 35%30%25%20%15%10%Snowflake MongoDBBloombergMongoDB是全球最受欢迎的NoSQL数据库之一,主攻文档型数据库。从2009年的1.0版本到2024年的8.0版本,它用15年时间完成了从NoSQL代表到融合型数据库的蜕变,当前公司稳居DB-Engines全球排行榜第五、同类数据库第一。MongoDB设计上摒弃了传统关系型数据库需要预先定义好表结构的模式,以类似JSON文档格式存储数据,文档之间可以嵌套,没有固定的模式。商业模式上,2016年底MongoDB推出了Atlas,这是一款数据库即服务(DBaaS)产品,本质上是让人们把使用MongoDB作为订阅付费式的服务,通过公有云进行交付,AWS、微软和谷歌等公有云服务商中均可购买。FY2026Q3,MongoDB75%来自AtlasDBaaS模式,MongoDB也为受监管行业提供本地部署的产品EnterpriseAdvanced(EA),FY2026Q325%EA。FY2025Q2起,MongoDB营收开始提速。MongoDB的收入主要来自两部分,一是Atlas产品,二是EnterpriseAdvanced,为金融、公共部门、医疗保健等行业企业客户提供本地部署的产品。总收入口径,FY2026Q1-Q3,MongoDB的收入增速分别为22%、24%、19%。Atlas产品收入增速高于总体,根据MongoDB公司在巴克莱第23届年度全球科技大会上的演讲,Q1-Q3,Atlas产品收入增速分别为26%、29%、30%。图9:MongoDB度收及速 图10:MongoDB毛利率情况 6.2876.286543210营业收入(亿美元)

5%0%

FY2023 FY2024 FY2025 FY2026Q1-Q3公告 公告注:MongoDBFY2026为2025.1.31-2026.1.30MongoDB存储非结构化数据、高实时性、一致性等性能契合了AI原生应用的需求,且随着Agent的风靡,数据库实时性要求会进一步提升。大语言模型(LLMs)原生输出与消费JSON格式,而MongoDB作为分布式文档数据库,天然适配非结构化、高动态数据场景。其次,如上文,Agent也必须建立在实时的在线数据库之上,加速MongoDB的流行。图DBEngine向数库名一 图12:MongoDBDBEngine向数库名一DB-Engine(数库引擎 DB-Engine(数库引擎MongoDBRuleof40。Ruleof40指当SaaS类企业的营业收入成长率+利润率≥40%时,其长期成长和盈利达到一个平衡状态,财务CEO23届年度全球科技大会上的演讲,预计本财年结束时,MongoDB经营利润率将达到18%,与年初的指引相比有显著提升。全年营收21%22%40法则的标准。图13:Retool调,21.1%的用户常用MongoDB量据库 Retool《2024年AI应用现状报告注:RetoolBlog|ThenewStateofAIreport:RealusecasesandtheAIstack并购Voyage,MongoDB从数据库变成了能直接产生AI价值的平台(数据存储+AI检索)。2025年2月,MongoDB以2.2亿美金收购了VoyageAI,Voyage的核心技术是嵌入和重排序模型。这些模型能够从高度专业化的文本和非结构化数据(如法律文档、金融报告、企业知识库等)中提取语义信息。在HuggingFace的RTEBVoyage集成Voyage模型后,用户能以AI的准确率——API、不用自己跑向量存储服务,也不用搭复杂的搜索链路。AI检索功能直接内嵌到数据库中,能实时用原始数据检索,语义搜索、向量检索、排序,也显著增强MongoDB争力。AMP(ApplicationModernizationPlatform)2025MongoDBEmbeddingAI图14:HuggingFaceRTEB测评,Voyage模型霸榜HuggingFace(大模型及训推工具开源网站注:RTEB是一个评估框架,用于衡量Embedding模型在真实检索场景下的泛化能力Mercor作为MongoDB的标杆用例,在促进MongoDB业务的拓展。Mercor成立于2023年,起初,Mercor为像ScaleAI这样的大型数据标注公司提供合同制人才,后转变为数据标注服务直接提供者。2025年,Mercor的ARR收入已经达到1亿美金。Mercor使用MongoDB完全构建了其数据模型,Atlas的规模足以支持Mercor每月50%的增长。我们认为Mercor为MongoDB进入AI原生应用市场破开了一道窗口,Mercor数据存储于MongoDB,将带动通用模型厂商、垂类模型厂商采购数据的同时也开始使用MongoDB的产品。字节跳动与MongoDB基于Elasticsearch团队在MongoDBAtlas与MongoDB90%65%35%。实际上,MongoDBMongoDB与上文提到的专业向量数据库的厂商,分别对应小规模和大规模数据场景下的需求:MongoDB更适用于向量总量在百万级以内、需要频繁结合向量与结构化数据进行联合检索、低成本轻量化部署(不想额外维护一套向量数据库集群,希望利用现有MongoDB架构快速上线向量功能)的厂商。MongoDB也迎合了宏观压力下企业降IT看到此,投资者可能关心,OLTP切入向量数据库,OLAPAIOLAP下游纵向拓展,核心典范是Databricks和Snowflake。Databricks成立于2013年,由七位加州大学伯克利分校博士创立,创始人是开源数ApacheSpark的最初创建者。202512月,Databricks40亿美元的L轮融资,估值攀升至1340亿美元。同时披露年化收入超48亿美元,同比+55%;其10亿美元,NRR>140%。DataBricks以开源框架ApacheSpark为起点,主导DeltaLake、MLflow、MLRuntimeAI模型的管理提供完整工具,形成社区驱动→生态垄断→商业变现的闭环,成为企业数据处理的行业标准。2025年初,DataBricks推出AI原生数据库Lakebase+AgentBricks,实现数据湖+数据仓库+AIAgent开发的全栈覆盖。Databricks核心业务是分析型数据处理,但Agent需要实时、低延迟的操作型数据支持(如状态存储、特征查询),因此DataBricks在25年5月份以10亿美元收入了Neon—专注于提供无服务器Postgres解决方案的公司,补齐了OLTP能力,并与6月推出LakeBase。Lakebase的核心定位是全球首个与湖仓一体架构深度集成的无服务器Postgres数据库让企业能在单一多云平台上高效搭建智能应用。AgentBricks则提供了构建Agent所需的积木(Bricks),例如:向量搜索、托管的大模型服务(FoundationModelAPIs)、MLflow的Agent跟踪功能、计算引擎等。AI公司,DatabricksAI开发的全链路闭环,其湖仓一体架构已成为行业事实标准。Dremio近期发布一份针对563位信息技术决策者的调查报告指出,到2028年,超五分之三(67%)的企业计划将其大部分分析工55%。Databricks15000余140%+。Snowflake也围绕数据整合-处理-分析-AI应用-协作全流程设计。公司核心为SnowflakePlatform这一云数据平台,在此基础上布局了四大业务板块:业务板块产品名产品功能数据分析类Horizon专注实现数据治理可视化,内置合规、安全、隐私与访问能力,支撑分业务板块产品名产品功能数据分析类Horizon专注实现数据治理可视化,内置合规、安全、隐私与访问能力,支撑分析场景的合规数据使用。Unistore Unistore 数据工程类Openflow数据工程类Openflow提供无负担的数据移动能力,支持实时/批量的跨系统数据集成,可处理结构化、非结构化、批处理与流式数据,帮助数据工程团队快速构建高效的数据管道。Notebooks为数据团队和AI团队提供交互式开发环境,支持编写、运行Python/SQL等代码,可完成数据预处理、探索性分析、AI模型原型开发等任务,提升数据工程与AI开发的协作效率。SnowparkSnowflakeSnowflake源处理大规模数据,助力构建复杂的数据转换、处理流程。人工智能类CortexAISnowflakeML提供行业领先大语言模型(LLM)的即时访问能力,支持通过SQL等方式调用LLM完成自然语言查询、文本摘要、翻译、情感分析等任务,无需用户自行部署,降低AI应用的技术门槛。MLOps,Snowflake流程,提升AI模型的开发与运维效率。应用与协作类DataClean提供隐私保护的跨主体数据协作环境,不同客户可在不共享原始数据的Rooms NativeAppsSnowflakeSnowflakeSnowflake部署与快速推广。Marketplace提供第三方数据资源的快速连接渠道,用户可将外部数据源、数据产品或AI应用直接接入Snowflake平台。Streamlit提供轻量开发框架,可将Python脚本快速转化为交互式Web应用。2022SnowflakeAI方案提供商的战略合作,接连推出CortexAI、SnowflakeMLSnowflakeIntelligenceAIMLOpsIcebergTables:兼容开放表格格式,Snowflake从数据仓库向数据湖仓架构的演进,Snowflake得以触达外部数据湖中的数据,为AISnowpark:让开发者能在Snowflake内部署和运行Python、Java和Scala代码,将支持的语言拓展至SQL之外。除了核心的数据工程场景,Snowpark生出SnowparkMLModeling(MLOps)、SnowparkContainerServices(容器7服务)等能力。MLOps:全流程赋能企业训练或微调自己的AI模型,具体功能包括特征工程、CortexAI:AIText-to-SQL、数据检索、RAG、Agents商业模式上,Snowflake将AI数据云作为一个整体解决方案向客户提供,虽然平台上有不同的功能类型,但不是各个功能单独计费,而是按照客户对1)存储、2)计算、3)数据迁移这三项资源的消耗来收费。存储:按照客户每月在Snowflake户在AWSAzure、上购买存储空间支付费用,根据Snowflake20/TBSnowflake)计算:按照消耗的计算资源的种类、时间长短和处理的数据量来收费。Snowflake使用Credit在单位时间内对Credit的消耗速率不同,客户可以按需挑选不同型号的虚拟仓库,Snowflake//Credit在1-7860.5-393/小时。数据迁移:按照迁移的数据量、涉及的公有云服务商、数据迁移的目的地等来收费随着Snowflake将AISnowparkLLM/MLGPUCortexAILLMSnowflakeMLAI任相较三大CSP自有的AWS的RedshiftSageMaker,GCP的BigQuery、VertexAISnowflakeSnowflake的数据工具构建在AWSAzureSnowflakeSnowflake2025财年,Snowflake取得36.26亿美元的营收,同比增长29.21%。根据FY2026Q3业绩法说会,预计FY2026全年收入为44.46亿美元,同比增速下降至22.6%。图15:Snowflake收增速 图16:SnowflakeNon-GAAP毛利率略有降50.045.040.035.030.025.020.015.0

12.2

105.9%20.7

28.169.5%

36.335.8%

44.5

120%100%80%60%40%

79%78%76%78%76%76%75%74%77%76%75%74%10.05.00.0

5.9

29.2%

.0%

73%72%FY2021FY2022FY2023FY2024FY2025FY2026全年指引营业收入(亿美元) yoy注:FY2026为2025.1.31-2026.1.30;2026年数值为公司前瞻预测值Snowflake业绩会演示材料,研究NRR稳定在125%左右。自2025财年Q3以来,公司净收入保持率稳定在125%附近,公司原始客户群体对收入的贡献以25%的增长率稳定扩张。图17:SnowflakeNRRFY25-26定在125% 图18:Snowflake的RPO呈阶性张势 Q4FY21Q1FY22Q2FY22Q3FY22Q4FY22Q1FY23Q2FY23Q3FY23Q4FY23Q1FY24Q2FY24Q3FY24Q4FY24Q1FY25Q2FY25Q3FY25Q4FY25Q1FY26Q2FY26Q3FY26Q4FY21Q1FY22Q2FY22Q3FY22Q4FY22Q1FY23Q2FY23Q3FY23Q4FY23Q1FY24Q2FY24Q3FY24Q4FY24Q1FY25Q2FY25Q3FY25Q4FY25Q1FY26Q2FY26Q3FY26Snowflake业绩说会 Snowflake业绩说会Snowflake客群覆盖金融服务、消费零售、科技、医疗健康、制造、公共部门等20+垂直行业。尤其在金融、医疗等数据密集型领域,公司产品渗透率较高。截至2026Q3,Snowflake年消费超1006882000强企业中已有766家成为其客户。图19:FY26Q3Snowflake户量到12621 图20:Snowflake持展优客户 Snowflake业绩说会 Snowflake业绩说会对比Snowflake、DataBricks、MongoDB等厂商,我们发现,Snowflake和DataBricks以OLAP(分析型数据库)能力起家,由于AI+Agent对OLTP需求的提升,他们选择基于自己庞大的用户基础,向上下游切入,为企业提供前期数据工程、后期模型运维MLOPS的全套工具。而OLTP厂商如MongoDB,向向量数据库切入,通过并购或合作等方式,增加Embedding、向量检索的能力,有望在AI应用及Agent渗透过程中迎来更高弹性。DataBricksSnowflakeMongoDB2025年用户数(截至第三财季)2025年预计收入(亿美元)ASP(万美金)定位典型客户15000+1262162500DataBricksSnowflakeMongoDB2025年用户数(截至第三财季)2025年预计收入(亿美元)ASP(万美金)定位典型客户15000+126216250048(ARR收入)44.524.332.035.23.9中大型企业中大型企业中小型企业壳牌等霍尼韦尔、ABB、ZOOM等Mercor、字节跳动各公司25Q3业绩法说会GPU成为数据控制中心,数据库+存储技术升级AI推理迈入实时化、PB级数据访问的新阶段,存储IO正从幕后支撑变成性能命脉。LLM推理的KV缓存访问粒度仅8KB-4MB,向量数据库检索、推荐系统的特征读取更是低至64B-8KB,且需要支持数千条并行线程的并发请求。LLM推理的存储需求已突破10TB级,向量数据库和推荐系统的存储规模更是达到1TB-1PB,这种小块高频的访问模式,让传统存储架构性能落后。NVIDIASCADA(ScaledAcceleratedDataAccess)GPU完全接管存储IOSCADANVIDIA8NVIDIAH3Platform,具体架构:4H100/L40SGPU,利用PCIeGen5/6H100IO48块PCIeGen6SSD5.4M随机读IOPS,44230MIOPS237.6MIOPS;BroadcomGen6PCIe96%,GPU图21:英伟达GPU直连SSD的硬件设计存储随笔这种GPU-交换机-SSD的直连架构,彻底绕开了CPU的性能限制。测试数据显示,1颗H100GPU的IO调度效率是Gen5IntelXeonPlatinumCPU的2倍以上,即便入门级的L40SGPU(Gen4),其IO效率也达到同代CPU的98%,且成本更低。图22:H100的IO调效是Gen5IntelXeonPlatinumCPU的2倍上 9849984948432421.5100 100%80 80%60 60%40 40%20 20%0Gen5H100

Gen4L40

0%Gen5CPUMIOps(每秒百万次操作) 带宽(GB/s) %SOL(性能占比)英伟达技术文档以LLM推理的KV缓存访问为例,SCADA的工作流程如下:LLM模型在GPU上执行推理时,需要访问特定的KV缓存块(8KB-4MB);GPU直接通过SCADAClient发起IO请求,无需CPU介入;SCADAServer通过uNVMe驱动向目标SSD发送请求,利用PCIeGen6交换机实现低延迟传输;数据通过DMA直接写入GPU的HBM缓存,供计算核心即时使用。整个过程中,CPU仅负责系统级的资源管理,不参与任何IO请求的发起与调度——这使得小数据块的IO延迟从毫秒级降至微秒级,完全匹配AI推理的实时性需求。SCADA的成功离不开生态伙伴的支持,目前Marvell、Micron、三星、KIOXIA等头部存储厂商已深度参与SCADA的优化。新的技术架构对向量数据库有什么影响?原本向量数据库分三层存储,核心靠硬盘+普通内存核心工作区(CPU内存/DDR):像仓库的工作台,放高频访问的向量数据和索引,方便快速取用,但容量小、成本高。长期存储区(NVMeSSD/硬盘):像仓库的货架,存全量向量数据,容量大、成本低,但访问速度比内存慢,类似货架取货要走几步。备份区(云存储/异地硬盘):像仓库的储物间,存冷数据和备份,几乎不参与实时工作。原本的工作流程是:CPU先接需求,从货架

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论