AI行业市场分析_第1页
AI行业市场分析_第2页
AI行业市场分析_第3页
AI行业市场分析_第4页
AI行业市场分析_第5页
已阅读5页,还剩21页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

AI行业市场分析市场回顾:美股科技板块、算力板块领涨随着ChatGPT以及AI的持续发展,全球投资者对人工智能期待甚多,资本市场亦在寻找相关领域的投资机会。复盘2023年全球主要资本市场走势,我们看到几个明显的特征:1)投资机遇主要围绕算力领域,英伟达及其产业链公司领涨,例如美股市场上英伟达,A股市场的工业富联、中际旭创等。2)从市场类别看,美股纳斯达克(+27.9%)和费城半导体(+36.8%)指数领涨。中国人工智能和科技相关指数表现平淡。具体来看,截至9月28日,A股市场,中信半导体指数(-5.3%)下跌,中信电子指数(1.3%)和中信计算机指数(+8.4%)小幅上涨。港股恒生科技指数(-10.8%),表现略强于恒生指数(-13.8%)。个股方面,英伟达(+201.1%)、脸书(+143.7%)、特斯拉(+127.9%)领涨美股,英伟达产业链公司中继旭创(+309.9%)、工业富联(+116.9%)领涨A股,理想汽车(+64.6%)表现显著优于其他港股科网公司。虽然市场上已经反映了大量的AI预期,但在当前技术和应用仍在快速迭代的过程中,投资者依旧关注:1)英伟达及其产业链公司的股价是否已经PriceIn太多市场预期,是否还有上行动力;2)人工智能投资机会未来是否将进一步向算力领域外延伸,云计算、大模型、AI应用领域投资能否酝酿下一波投资机遇。在本篇报告中,我们将系统性总结、反思过去一年乃至更长时间周期内,AI的演进及市场预期变化,梳理人工智能的投资框架全景图,全面梳理A股、港股、美股市场上的人工智能相关公司,供投资者参考。技术逻辑:走向更人性化、更多元化的人机交互模式技术复盘:OpenAI主导的生成式人工智能AIGC路径,建立在超大规模的数据学习基础上,基于模型训练和RLHF人类反馈强化学习,可用于文本、图片、代码等多模态信息生成和交互。而ChatGPT的技术根基来自于2016发表的Transformer模型(由谷歌最先提出),用通俗的语言来解释,这一模型的工作就是通过分析数据单字间的统计学关联,从而预测句子中将要出现的下一个词或者空缺的词的概率。通过不断计算空缺单词的概率分布,模型最终通过统计学的原理生成出一个完整的句子。回顾OpenAI的发展历程,ChatGPT的成功并非是横空出世,而是经历了超过7年、多于三代的技术积累与迭代,并在这一过程中走出了自己的开创性道路。OpenAI成立于2015年,在当时的学术界仍然以深度学习为核心的小模型占据主流:这类模型以LSTM及CNN模型作为典型的特征抽取器,根据特定领域标注数据训练,在一些任务上可以达到接近人类的水准。但是硬件算力不够导致针对其他领域重新训练成本过高,让其通用型任务的完成情况很差。从2018年开始,OpenAI开始活跃在大语言模型的学术圈内,并提出了开创性的GPT-2模型。2017年谷歌Bert为代表的双向预训练+FineTuning(微调)的Transformer模型横空出世成为了人工智能的主流方向,OpenAI紧随谷歌之后提出了GPT-2在Bert的模式上做了改进,以让其更适合生成式的任务。尽管GPT-2模型仍然十分不完善,基准成绩不算优秀,但Bert与后续GPT-2等模型的推出统一了自然语言模型(NLP)的研究范式。这类模型以预训练的方式学习语言学特征,大幅简化了过去NLP繁琐的研究种类。Transformer作为特征提取器效果好于CNN、LSTM模型等,让AI首次能在语言任务的部分场景中追平人类。2020年是OpenAI产生广泛影响力的开端,GPT-3的出现证明了OpenAI自回归模型的优势,并验证了模型大小与数据质量的重要性。在这段时间内产业界与学术界继续沿着Transformer的道路前进,但开始尝试不同于Bert的其他Transformer架构,通过预训练无监督学习的方法不断增加模型大小成为了这一时段的主流。以OpenAI1750亿参数的GPT-3为代表,各大互联网巨头不断尝试增加模型体积以获得更好的效果。GPT模型相比于其他模型的不同之处在于其更好的产品化能力。相比于Bert,GPT-3的自回归+Prompting在产品化能力上展现出了两个优点:1)Fine-tuning对于小公司更难部署,从产品化的角度上更加困难;2)Prompting的方法更符合我们对以人类的方式使用AI的愿望。谷歌等巨头在这一阶段也意识到了Prompting方法的重要性,逐渐开始转向。国内AI研究在这一段时间内明显落后,仍然沿着Bert模型的方向继续前进,对GPT-3的研究很少;同时受制于中文优质语料的相对稀缺,模型大小也较难提升。ChatGPT的成功证明了GPT模型的Prompting道路的正确性,同时也强调了数据质量的重要性。ChatGPT最重要的成功是在产品化上更进一步:ChatGPT在模型精度上并没有飞跃性的突破,但从FewShotprompt(需要输入范例示范)转换到Instruct(用人类语言描述想做什么)更加贴合用户的习惯。从产品逻辑上,ChatGPT的Prompting模式虽然牺牲了部分精度,但无需用任务区分器区别不同的任务,更接近于大众所理解的“人工智能”。此前大众接触的人工智能如·Siri、小爱、小度音箱等,通过以任务分类的形式运行,准备不同任务的标注数据分别进行训练,是传统的Bert类模型。简单来说,将预先设置好的任务类型放于模型背后,使用者通过描述任务类型系统来匹配对应的模块,缺点是使用者的指令需要清晰且无法执行没有预先设置的任务类型。而GPT类模型面对用户不同的输入,模型可以自行判断给了用户更好的体验,这也更接近于大众理解的“通用人工智能”。随着GPT模型的成功,OpenAI等人工智能头部厂商从开源走向闭源,利用其资源优势来打造差异化的AI模型。在GPT与PalM交出出色表现后,谷歌与OpenAI作为行业内的技术领先者已经明确选择了闭源模式:OpenAI推出GPT-4的形式与以往模型的发布都有所不同,OpenAI既没有公开发布GPT-4的相关论文,也没有提供详细的框架说明,仅仅提供了一份98页的技术文档(主要描述模型能力以及相关评测的得分,几乎没有任何技术细节)。通过这一方式,OpenAI阻断了所有借鉴者参考的直接途径(模型大小、数据集构建、训练方法等),将闭源的路线坚持到底。通过这一方式,OpenAI迫使想要融入GPT-4能力的软件服务商与其合作,OpenAI提供对应的API接口以及部署指导。相较于头部厂商,Meta等追赶者更倾向于培养开源社区,发布Llama2共同迭代模型。头部厂商闭源模型后,落后一到两个身位的公司(Meta、Amazon、NVIDIA等)可能会选择开源路线,寄希望通过社区的力量加速迭代。2023年7月19日,Meta发布了其最新开源可商用版本Llama2大语言模型。模型层面的最大亮点在于开源了与GPT-3.5相同的SFT与RLHF(人类反馈强化学习)的步骤,成为目前开源类别中最接近GPT-3.5的大语言模型。从Meta论文中公布的数据指标,Llama270B在部分指标上甚至追平了GPT-3.5,大部分指标超过GPT-3,成为如今性能较为领先的开源模型之一。总体来看,Meta的LLaMA2论文向业内拆解了SFT以及RLHF等的技术过程,并给出了可以直接使用的版本,我们认为这将会统一目前开源领域的研究框架,加速开源模型的迭代速度。除去上述提到的几家互联网巨头外,海外的初创模型公司中也有如Anthropic、Cohere以及Adept等市场参与者:AnthropicAnthropic是由OpenAI前员工DanielaAmodei和DarioAmodei创办,他们是GPT2和GPT3的核心研发人员。在ChatGPT发布两个月后,Anthropic公司就迅速开发出了竞品Claude,又在2023年7月初完成了Claude2的升级。相比初代版本,Claude2性能有所提升,并且能够实现更长文本的响应,在编程、数学、推理等方面都有大幅提升。根据其论文公布的相关参数,Claude2在一些核心数据集中的表现可以与GPT-3.5相当。依托亚马逊硬件平台,寻求快速扩大模型规模。根据TechCrunch的报道,Anthropic的目标是在未来两年内筹集多达50亿美元,以训练一个强大的模型,并进入十几个主要行业。作为OpenAI的挑战者,Anthropic在2022年早些时候获得了谷歌4亿美元的投资,并于2023年获得亚马逊40亿美元的初期投资。根据亚马逊的披露,通过与亚马逊的合作,Anthropic将使用AWSTrainium和Inferentia芯片来构建、训练和部署其未来的基础模型。并且,两家公司还将合作开发未来的Trainium和Inferentia技术。CohereCohere2019年成立于加拿大多伦多,其创立者AidenGomez是2017年大模型的开创论文《Attentionisallyouneed》的署名八位作者之一。这8位作者均已离开谷歌,其中6人选择创建自己的AI公司,分别是Cohere、Adept、Character.ai、Inceptive以及NEAR.AI。Gomez创立的Cohere主要业务是给用户提供应用大语言模型的API,可以帮助用户创建针对客户特有的使用场景和独有数据的大模型。Cohere可以提供生成语言模型(generativelanguagemodel,如GPT2和GPT3直接生成文字)和表示模型(reprensentationlanguagemodel,如BERT,生成Embedding向量)。在2023年中端大模型竞争愈发激烈后,Cohere也改变此前不单独推出模型的战略,发布了其协同类助手Coral,主要针对的是办公场景中不同工作流的协同任务。Cohere在2021年9月获得4000万美元A轮融资;2022年2月获得1.59亿美元B轮融资,投资方包括AI领域资深学者深度学习三巨头之一GeoffreyHinton、李飞飞、PieterAbbeel,还有知名基金TigerGlobal,IndexVenture等。2023年5月获得2.5亿美元的融资,估值达到20亿美元,投资方包括SalesforceVentures,英伟达,InoviaCapital和IndexVentures等。AdeptAdept成立于2022年,专注于人工智能模型开发领域,其创始人是之前提到的论文《Attentionisallyouneed》另外两位作者AshishVaswani和NikiParmar。截至2023年3月,Adept累计融资4.15亿美元,最新的估值至少为10亿美元。AdeptAI目前的主要目标是基于生成式AI技术来做的一款通用操作工具,让用户可以通过使用语音或文字来下指令,由人工智能理解后来帮助完成各种操作和任务。Adept的产品更接近于AIAgent的概念,这也导致他目前的实际落地进度较慢。简单来说,AdeptAI的目标是基于生成式AI来建立一个全新的操作系统或者说是平台,彻底改变过去人们使用应用程序或网页来进行软件操作的流程。目前,该产品主要由AdeptAI自研的大模型ActionTransformer(ACT-1)来实现。国产大模型:诸多玩家入场,科网巨头目前投入较为激进。国内市场亦与海外市场类似,大量科技互联网巨头、初创公司参与到竞争当中。从类型来看,主要分为四类玩家:1)科技互联网巨头,以BATT、华为等为代表,力争实现通用模型的建设。2)初创公司,以Minimax等为代表,独立创业进行大模型的研发。3)科研院校,围绕科研资源,进行大模型的研发。4)其他科技公司,如云知声、科大讯飞、昆仑万维等。应用潜力:AI+SaaS将成为最有潜力的模式目前的AI应用端尚不成熟,我们认为AIAgent将会是AI浪潮的下一个风口机会。通过将语言模型与外部记忆规划工具结合,AIAgent进一步简化了交互难度并提高稳定性。OpenAI的应用研究主管LiLianWeng在接受采访时表示Agent是大语言模型+记忆+规划+外部工具的集合体,其中大语言模型是整个系统的大脑。通过一些列的封装操作以及对外部数据的引用,Agent能够极大程度减轻幻觉所带来的错误问题。业界认为到目前为止,Agent仍然是一个理想中的概念,实际产品仍然受到目前较慢的算力传输、高昂的成本以及难以互通的外部API的限制,但在未来3-5年后Agent最终可能成为ToC领域,人机交互的入口级平台。微软CopilotAI助手是目前进度最快的Agent产品,通过整合GPT技术,有助提升用户效率,且有助公司挖掘用户价值。Copilot是微软生成式的AI助手,此前已被应用在类似于Github等代码开发场景。根据微软在其技术文档中的表示,Copilot采用了OpenAI推出的GPT-4模型,并且进一步优化了输出内容的可靠性以及使用数据的隐私问题,为企业级的应用做好了准备。AI功能被直接集成到Word、Excel、PowerPoint、Outlook和Teams等应用中,用户可以提出问题并提示AI撰写草稿、制作演示文稿、编辑电子邮件、制作演示文稿、总结会议等。Copilot将以两种方式与Microsoft365客户合作:1)嵌入到Word,Excel,PowerPoint,Outlook,Teams等。2)提供聊天功能。商务聊天功能覆盖LLM、Microsoft365应用和客户的日历、电子邮件、聊天、文档、会议和联系人工作等,通过自然语言提示(如“告诉我的团队我们如何更新产品策略”),商务聊天将根据上午的会议、电子邮件和聊天线程生成状态更新。Copilot最早基于Windows11,后支持Office365,面向企业用户定价为每用户30美元/月。我们认为,微软Copilot是最值得关注的AI应用,如果其订阅数据保持持续稳定增长,意味着SaaS+AI商业模式被用户接受,具有显著的示范效应。业务逻辑:实现应用、数据、模型的业务闭环。在Copilot的业务逻辑中,从用户的输入到最终模型完成并自我迭代大约有以下流程:1)由用户给出实际需求的prompt,微软根据已经授权获取的用户数据图谱当中,提取所需数据。2)将数据以及识别后的prompt输入至语言模型。3)由语言模型处理,并进行多模态的关联落地(grounding),返回至用户的数据图谱。4)基于用户的数据图谱,返回至应用,完成输出以及命令的执行。关联落地(Grounding)是Copilot在用户级别对于指令的微调,是确保大语言模型生成的内容可靠的关键步骤。根据微软在其公开的技术文档中的表述,Copilot将会通过Grounding这一过程来提高其接收提示的质量,以确保模型最大程度上准确执行用户的指令。如果用户要求Word根据相应的数据创建文档,Copilot会将该提示发送到MicrosoftGraph以检索上下文和数据,然后修改并优化用户的提示(例如加入用户真实业务场景的数据的示例以提高准确性)并将其发送到GPT-4大语言模型。响应结果然后被发送到MicrosoftGraph进行额外的Grounding、安全性和合规性检查,最后将响应和命令发送回Microsoft365应用程序。通过Grounding这一过程,Copilot本质上将人类语言的表述根据实际的数据情况更换成更符合大语言模型理解的Prompting(提示),然后以此完成多模态之间的转换并提升指令的准确性。具体形式:Microsoft365Copilot无缝集成到不同应用中。根据微软的演示,未来Copilot能够无缝植入到Microsoft365当中,并在多个场景发挥作用,具体包括:Word中的Copilot在人们工作时能够进行编写、编辑、总结和创建。例如“创建一个关于销售数据的报告”,Copilot就会根据提示,并基于可使用的数据文件,生成一个文档的初稿。然后,可以根据需要编辑生成的文本,选择接受或拒绝AI的修改。用户可以通过点击工具栏中的“Copilot”图标来激活Copilot在Word中的功能。在微软的演示中,展示了:1)根据文档的数据,起草初稿。2)调整文档段落语气。3)根据大纲输出文档。PowerPoint中的Copilot通过自然语言命令将想法转化为设计的演示文稿。Copilot会利用MicrosoftGraph和大型语言模型的信息和能力,生成包含相关内容、图片和动画的演示文稿。Copilot还可以帮助优化和调整演示文稿,让它更符合用户的偏好和风格。目前能够支持创建、新增素材、文字文档与备注的切换、格式与布局的优化、数据可视化等能力。Excel中的Copilot有助于在很短的时间内给出结论、识别趋势或创建具有专业外观的数据可视化效果。在微软的演示中,包括:1)按类型和渠道分解销售数据,并插入表格。2)预测变量变化,生成可视化图表。3)模拟数据变化对计算结果的影响。Outlook中的Copilot可以帮助合成和管理收件箱,以便将更多时间花在实际通信上。包括回顾过去邮件的内容并标记要点、根据收到的邮件起草回复、撰写新邮件草稿等能力,降低阅读和撰写邮件的实际时间成本。Teams中的Copilot通过直接在对话上下文中的实时摘要和操作项使会议更高效。Copilot能够组织关键讨论点,并总结关键行动。根据聊天记录创建会议议程、确定正确的人员进行后续跟进,并安排下一次检查。PowerPlatform中的Copilot将在PowerApps和PowerVirtualAgent中引入两项新功能,帮助所有技能水平的开发人员使用低代码工具加速和简化开发。GitHub数据显示,使用GitHubCopilot的开发人员中,有88%的人表示使用该工具后他们更加高效,77%的人表示该工具帮助他们减少了搜索信息的时间,74%的人表示他们可以将自己的精力集中在更令人满意的工作上。商务聊天汇集了来自文档、演示文稿、电子邮件、日历、便笺和联系人的数据,以帮助汇总聊天、编写电子邮件、查找关键日期,甚至根据其他项目文件编写计划。让整个团队保持在同一页面,并共同推动工作。花更少的时间关注工具,更多的时间关注最重要的工作。除了微软Copilot外,Adobe和Salesforce也推出基于AI的服务。以Adobe为例,Firefly通过独立网址被访问期间,在2023年的3月21日到6月8日的2个多月时间里帮助用户生成超过2亿张图片,被整合进入Photoshop应用后,在5月23日到6月8日的2周多时间内帮助用户生成超过1.5亿张图片。软件SaaS应用的流量基础优势显现,叠加AI应用提升用户体验,可以进一步显著提升用户粘性。如果微软Copilot能够证明“加量可加价”逻辑的成立,意味着软件SaaS公司的市场空间TAM将被进一步打开。未来一旦进入美元降息周期,叠加SaaS行业TAM扩大,美股SaaS板块或将迎来一波重估机遇。中国软件公司亦有望有对标机会。长期机会:市场对AI长期潜力的认知存在预期差市场目前对AI的短期落地能力存在一定高估,但对AI长期潜力的认知仍存在一定的不足。PC和移动互联网等科技大潮的经验表明,人们倾向于高估新技术带来的短期变化,低估技术浪潮的长期潜力。在PC、互联网、智能手机等技术兴起时,我们在2000年、2012年都遇到了市场泡沫的挑战,市场总会在短期内高估新技术带来的影响力。但在长期新技术又会证明它们的长期潜力,根据IDC数据,PC的峰值年销量约3.5亿台,互联网产业巅峰市值约千亿美元量级;智能手机的峰值销量约14亿部,移动互联网产业市值以万亿美元计。我们认为人工智能AI也即将加入上述技术的行列。长期来看,人工智能AI将带来传统千行百业数字化和智能化,有望打开万亿美元潜在市场空间和更大规模的市值空间,甚至孕育下一代科技硬件。ChatGPT的出现所带来的内容生成能力将会为当今从用户创作(UGC)到AI创作(AIGC)的转型提供关键的辅助支持。目前我们正经历从Web2.0开始向Web3.0转型的启航阶段,在过去五年我们已经看到内容创造从专业创作(PFC)转型为了用户创作(UGC)。而在不远的将来,AI协助内容生成(AIUGC)与AI创作(AIGC)将为我们提供更低的创作门槛以及更丰富的创作思路。在这两个阶段中,内容生产主体从人类本身开始向人工智能迁移,主要区别体现在内容的生产效率、知识图谱的多样性以及提供更加动态且可交互的内容上。人脑只能基于自己的知识图谱进行少数方向的信息处理,而AI能从更庞大的知识体系中进行多个方向的处理,进而提供更多的创作思路。Gartner预计,到2025年,生成式人工智能将占所有生成数据的10%。此外我们会看到,空间计算、智能汽车、机器人等行业,亦有望随着AI的发展迎来下一轮的重构。算力的快速发展是我们在最近五年内看到的确定性最强的趋势。根据英伟达官网公布的数据,从2016至2022年,训练相同ResNet模型的速度快了15倍。2022年英伟达新推出的H100芯片搭载Transformer引擎,使用每层统计分析来确定模型每一层的最佳精度(FP16或FP8),在保持模型精度的同时实现最佳性能,相较于上一代产品提供9倍的训练吞吐量,性能提升6倍,但发展迭代速度仍慢于当前需求增长。OpenAI预计人工智能科学研究要想取得突破,所需消耗的计算资源每3-4个月就要翻一倍,资金也需要通过指数级增长获得匹配。此外如苹果VisionPro首次提出“空间计算”等概念,我们也意识到未来AI+硬件的结合可望带来更多科技进步可能。苹果VisionPro的空间计算,本质上是基于现实空间进行计算,并通过AI技术加以辅助。用户通过VisionPro看到的所有虚拟画面,都可以理解为,是在真实世界上叠加了实时计算的可能。交互方式将会从移动互联时代的2D转换为3D,更符合人类现实生活场景的交互,仅用眼睛、双手、声音进行控制。通过AI技术的帮助叠加已有的AR硬件,我们看到了技术间组合进步的更多可能性。但在这些巨大的长期潜力背后,AI在短期内需要更多时间来改变行业。AI的产业链结构由底层的算力与云平台到中层的模型、数据及基础软件服务再到上层的应用服务构成。当前,我们看到在算力平台与模型方面都取得了巨大的进步,然而数据端的困境拖慢了AI在短期内落地商业化的进度。我们认为以传统行业为代表的数据治理仍需要进一步提升,来为AI补充更好的“弹药”。在预训练过程中,厂商需要把数据进行系统性的清洗、整理,并将句子进行切割,备注标签。在进行实例封装的过程中,需要将现有的数据进行详细的标注,并统一格式,为后续任务输出提供基础,将计算机语言与人类实际需求对齐。而数据清洗、数据标注、数据结构化、数据规模化等核心环节既需要时间,更需要传统产业决策者的认知提升。算法方面,幻觉(Hallucination)仍是制约前进的关键因素。大语言模型幻觉指的是大语言模型在回答的时候仍会产生大量的虚假内容甚至虚构事实进行回答。这一现象的主要原因之一在于用于训练LLM的训练数据,这些数据大部分是基于互联网上的各种新闻、文章、书籍、网站等覆盖的文本资料。大语言模型的训练过程大多数是基于预测单词的方式进行预训练,因此它只能保证文本生成的流畅性,而无法辨别所遇到的信息是否真实或准确。因此如果训练数据中包含一些矛盾或者错误的表述,就可能导致大语言模型也在学习这些错误的表达,从而一定程度导致了幻觉的产生。为了减轻幻觉的问题,这要求开发者针对不同的垂直场景的数据进一步微调模型。我们坚信,AI在中长期将彻底再造千行百业,带来长期投资机遇,但市场预期提升过快,AI产业化的大规模落地仍需时间。投资分析:算力先行,静待AI应用大规模落地在上文中,我们对AI的技术演进、短期应用场景、远期机会等进行了系统性的分析,而落地到投资维度,考虑到各环节不同的成熟度以及商业化时间,其投资节奏亦存在一定的时间差,在本部分,我们将详细分析AI产业链(算力、模型、数据、应用)上不同环节的落地成熟度,以及对应的投资机会。1)算力:中短期仍是率先受益、确定性最高的方向。算力层面,目前市场关注GPU及其配套,但在广义的算力维度,除高性能计算芯片之外,亦包括云计算、IDC以及相关配套,具体而言:云平台:作为计算层面最为理想的承载者,有望持续受益全球AI产业的发展。目前,全球云计算巨头均发布与LLM以及生成式AI相关的产品。以海外为例,云厂商在布局思路、商业化路径等方面存在一定分叉,微软、谷歌依靠闭源模型,全力打造闭环的AI生态,而AWS则以相对开放的心态,尝试从不同角度进行AI与云计算的融合。我们判断,三大云厂商在云基础设施、模型应用以及商业细分场景有望持续受益,并有望为产业链带来可观的业绩增量。对应国内市场,互联网云、运营商云等均具备潜在的投资机会。产业链:IDC及液冷等领域有望持续受益。根据Trendforce的统计,2022年Top4的云与互联网公司贡献了全球大约65%的AI服务器采购量。AI的演进将带来数据中心相关产业的持续推进。在全球市场上,Equinix、DLR等第三方数据中心已成为主力供应商。中国市场上,运营商仍占据主导位置,第三方数据中心快速崛起,数据中心厂商虽短期仍有需求压力,但随着产业出清、AI带来数据需求,有望再次受益。而在液冷等环节,随着AI服务器和智能联动系统的普及,柜级全液冷搭配浸没式液冷,以及动环监控系统和AI调节的“零碳”数据中心的合并应用,能够进一步将数据中心的PUE降低。GPU:中短期确定性依旧较高。目前英伟达数据中心加速卡销量仍主要以高端的A100/H100系列卡为主,网络业务主要和其配套销售。需求层面,短期科技巨头的军备竞赛、创业公司的积极涌入等,叠加主要参与者在模型构建环节的极大热情等,均有望构成持续的需求支撑;供给层面,目前A100/H100仍主要受制于HBM(高带宽内存)、先进封装(CoWoS)等,其中台积电CoWoS环节产能为主要约束,考虑到封测设备的交货周期等因素,我们预计台积电CoWoS产能实现实质性改善最早要到2024Q2左右。同时参考历史经验,短期偏紧的供给、供需的严重错配等,预计将导致下游客户出现doublebooking、overbooking等现象。因此,短期维度(至少2024Q2之前),无论是从订单流入、交付量、价格等维度,英伟达数据中心业务均有望维持强劲,且持续保持季度环比向上,该种情形亦是周期股理想投资周期。2)算法:互联网巨头有望受益,同时关注初创公司进展。互联网巨头在AI领域投入已久,百度2014年即成立人工智能实验室,阿里巴巴、腾讯、字节跳动也于2016年成立人工智能实验室,此后各家在芯片层、模型层及应用层持续探索,不断完善布局,在研发、模型、数据、应用等方面已积累显著的先发优势。而对初创公司而言,与头部厂商的合作与绑定大概率将成为高确定性趋势。算法模型:追随海外技术进展,研发突破是竞争关键。从技术路线来看,国内大模型主要追随海外进展。基于谷歌在人工智能领域更高的影响力以及BERT开源代码,前期我国企业在大模型领域的探索更多参考BERT路线。随着ChatGPT在人机对话领域的超预期表现验证了高质量数据+反馈激励(大模型预训练+小数据微调)的有效性,国内大模型技术路线也逐渐向GPT方向收敛。我们认为,尽管模型架构设计的不同对特定任务上的表现有一定影响,但国内大模型厂商在技术上基本同源,从而导致了现阶段较为相似的模型能力,而下一阶段对于GPT方向的研发突破将是竞争关键。算力:互联网厂商在算力资源上具备优势。随着模型参数和复杂度的提升,大模型对算力的需求也在加速增长。当前国内已发布的大模型中,参数规模达到千亿及以上的厂商仅为10个左右,一定程度上体现出各厂商之间算力能力的差异。我们认为,互联网厂商在算力资源上具备相对优势,主要原因系:1)互联网企业业务布局多元,用户基数庞大,海量数据高频更新,使得互联网企业自身对算力有大量需求,阿里巴巴、字节跳动、百度、腾讯等头部互联网企业是全球芯片及服务器领域的重要客户。2)阿里云、百度云、腾讯云等为国内头部云厂商,在云计算中心、AI算力平台、超算中心等新型高性能计算基础设施上布局领先,如阿里云推出PAI灵骏智算服务,提供覆盖AI开发全流程的平台和分布式异构计算优化能力;腾讯云发布新一代HCC(High-PerformanceComputingCluster)高性能计算集群,算力性能较前代提升高达3倍。数据:优质开源中文数据集稀缺,自有数据及处理能力构成模型训练壁垒。得益于开源共创的互联网生态,海外已有大量优质、结构化的开源数据库,文本来源既包含严谨的学术写作、百科知识,也包含文学作品、新闻媒体、社交网站、流行内容等,更加丰富的语料数据能够提高模型在不同情景下的对话能力。而受制于搭建数据集较高的成本以及尚未成熟的开源生态,国内开源数据集在数据规模和语料质量上相比海外仍有较大差距,数据来源较为单一,且更新频率较低,从而导致模型的训练效果受限。因此,大模型厂商的自有数据和处理能力构成模型训练效果差异化的核心。受益于移动互联网时代积累的海量用户、应用和数据,互联网企业在自有数据上更具特色化和独占性,叠加更强大的数据处理能力,从而能够通过数据优势带来模型训练成果的差异。例如,阿里巴巴在研发M6时,构建了最大的中文多模态预训练数据集M6-Corpus,包含超过1.9TB图像和292GB文本,涵盖百科全书、网页、问答、论坛、产品说明等数据来源,并设计了完善的清洁程序以确保数据质量。百度ERNIE模型的训练数据集中也运用了大量百度百科、百度搜索以及百度知识图谱等生态内数据,通过更高质量的数据保障了模型的训练效果。资源投入:互联网厂商重视研发投入,资金及人才实力领先。大模型的训练需要较高且可持续的研发投入,头部互联网企业兼具高资本密度和高人才密度优势。资金方面,2022年,腾讯/阿里巴巴/百度研发费用达614/567/233亿元,明显领先于行业相关公司。人才方面,根据脉脉人才库,在计算机视觉、深度学习、语音识别、自然语言处理4个人工智能重要的技术方向上,互联网大厂是人才储备最丰富的企业。持续的高研发投入以及极高的人才密度有望驱动头部互联网企业保持在AI及大模型领域的领先优势。场景:业务丰富多元,互联网厂商天然具备落地实践场景。考虑到数据隐私和安全合规,初期通用大模型在行业落地时可能会面临一定的信任问题,从而导致较高的获客成本。而头部互联网平台基于自身在电商、搜索、游戏、金融等领域丰富的业务积累,天然具备落地实践场景。在提高产品效率的同时,也有望率先形成示范效应,从而有助于外部客户和应用的拓展。格局推演:互联网巨头有望保持领先地位,中小厂商或将面临路径选择。综合上述分析,结合行业竞争要素,并参考海外当前竞争格局,我们认为,国内大模型赛道有望形成与海外相似的产业趋势,兼具技术、资金、人才和场景优势的头部互联网企业有望成为大模型领域的重要玩家,而中小厂商或将面临路径选择。一方面,中小厂商可以利用自身在垂类场景和数据层面积累的优势,成为聚焦垂类的核心特色玩家;另一方面,基于训练和用户调用带来的算力需求的激增,考虑到资源优势和经济性,中小厂商或将寻求云厂商的支持和合作。3)数据:AI的血液与粮食。按照当前LLM的技术范式,数据集主要应用于预训练、模型调优阶段。预训练阶段需要大规模、多类别、高质量的训练数据,在模型调优阶段,垂类小数据集、提示词工程同样重要。近年来全球数据量呈现爆发式增长,IDC统计,2019年全球产生的数据量为41ZB,过去十年的CAGR接近50%,且预计到2025年全球数据量或高达175ZB,对应2019-2025年仍将维持近30%的复合增速,其中超过80%的数据都将是处理难度较大的文本、图像、音视频等非结构化数据。从Bert开始到GPT-3再到谷歌的PALM,网络中的公开语言数据源已经在被尽可能地利用(论坛、新闻、维基百科等),但模型优化仍需更多数据,这要求模型开发商有能力接触到优质私有数据来源,从而才能在模型的数据底层取得差异性的优势。数据筛选:为AI提供高质量数据。ChatGPT以GPT3.5(生成式预训练)模型进行调优,注重数据质量,以及人类反馈强化学习,让模型在早期开放给大众测试并收集人类反馈数据,从而显著增强了模型在海量历史数据中挖掘知识的能力,并最终在人机对话领域获得理想效果。由于不同的行业、不同的业务场景对数据标注的需求存在一定的差异性,高质量的数据集成为提高数据标注质量的关键。公开数据集可以帮助数据标注团队减少从零开始创建和标注大量数据所需的时间和成本,且通常由专业团队或机构创建,其数据质量往往较高。这有助于提高数据标注项目的准确性和可靠性,从而提高整体项目的质量。根据IDC发布的《2021年中国人工智能基础数据服务市场研究报告》,预计中国AI基础数据服务市场近5年复合年增长率将达到47%,预期2025年将突破120亿元。数据管理:AI产业趋势的核心受益者之一。数据库管理系统是大数据时代的底层软件和核心支撑。AI时代数据量爆发、数据结构复杂度攀升,驱动全球数据库市场长期稳定增长,云化趋势明确。IDC预计

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论