计算机-全球AI算力需求继续向上_第1页
计算机-全球AI算力需求继续向上_第2页
计算机-全球AI算力需求继续向上_第3页
计算机-全球AI算力需求继续向上_第4页
计算机-全球AI算力需求继续向上_第5页
已阅读5页,还剩22页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。计算机增持(维持)研究员联系人SAC计算机增持(维持)研究员联系人SACNo.S0570519080006xiechunsheng@SFCNo.BQZ938+(86)2129872036SACNo.S0570122060076linhailiang@+(86)2128972228计算机华泰研究2024年4月12日│中国内地专题研究全球AI算力需求继续向上随着大模型持续迭代,模型能力不断增强,其背后是“ScalingLaw”下模型参数量和数据集不断增长的结果。我们认为,从大模型的演化路径来看,模型体量还将进一步扩张,从而带来算力需求持续增长。具体来看,大模型对算力的需求体现在预训练、推理、调优三个环节。根据我们的测算,以1000亿参数模型为例,三个环节的算力总需求约18万PFlop/s-day,对应需要2.8万张A100等效GPU算力。长远来看,成熟大模型的运营有望带来3169亿美元的服务器增量市场,较2023年全球211亿美元的AI服务器市场而言,仍有较大成长空间。基于此,我们认为大模型持续迭代有望带来大量算力基础设施需求,建议关注算力产业投资机遇。模型体量越来越大,带动算力建设需求大语言模型(LLM)是在大量数据集上预训练的模型,其在处理各种NLP任务方面显示出了较大潜力。Transformer架构的出现开启了大模型的演化之路,随着解码模块堆叠数量的不断增长,模型参数量持续增加,逐渐演化出GPT-1、GPT-2、GPT-3、PaLM、Gemini等不同版本模型,参数量也从十亿、百亿,向千亿、万亿增长。我们看到,每一代模型的演化都带来能力的增强,背后一个很重要的原因在于参数量和数据集的增长,带来模型感知能力、推理能力、记忆能力的不断提升。基于模型的缩放定律,我们认为未来模型迭代或仍将延续更大参数量的路径,演化出更加智能的多模态能力。行业走势图计算机沪深300(%)6(7)(20)(32)(45)Apr-23Aug-23Dec-23Apr-24资料来源:Wind,华泰研究大模型的算力需求体现在:预训练、推理、调优拆解来看,大模型的算力需求场景主要包括预训练、Finetune及日常运营。对于三部分的算力需求,我们的测算思路如下:1)预训练:基于“Chinchilla缩放定律”假设,计算量可以通过公式C≈6NBS来刻画;2)推理:以ChatGPT流量为基准,计算量可以通过公式C≈2NBS来刻画;3)调优:通过调优所需的GPU核时数倒推。以1000亿参数模型的预训练/推理/调优为例,三个环节所需的算力需求分别为13889、5555.6、216PFlop/s-day。我们认为,在缩放定律(ScalingLaw)加持下,随着模型体量增长,算力需求有望持续释放。基础设施需求有望持续释放,关注算力产业投资机遇结合对大模型预训练/推理/调优的算力需求测算,我们预计从开发到成熟运营一个千亿模型,对A100等效GPU的需求量为2.8万张。根据我们的测算,成熟大模型的运营有望带来3169亿美元的全球AI服务器增量市场。对比来看,据IDC,2023年全球AI服务器市场规模211亿美元,预计2024-2025年CAGR将达22.7%,未来仍有较大成长空间。此外,考虑到国内对高性能芯片获取受限,AIGPU国产化也有望进一步提速。产业链相关公司包括:1、英伟达链:浪潮信息、工业富联、中际旭创、沪电股份等;2、昇腾链:神州数码等;3、海光链:海光信息、中科曙光等;4、EDA:华大九天等。风险提示:宏观经济波动、下游需求不及预期、测算结果可能存在偏差。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。“ScalingLaw”驱动大模型算力需求持续增长 3预训练:缩放定律下算力需求有望持续增长 5推理:高并发是推理计算需求的主要驱动力 8调优:算力需求主要取决于调优次数 10算力基础设施需求有望持续释放,关注算力产业机遇 12风险提示 图表1:大语言模型(LLM)演化树 3图表2:下一代大模型或向更大参数方向演化 4图表3:大模型算力需求框架 4图表4:大模型预训练效果主要由参数量、Token数量、计算量决定,且满足“缩放定律” 5图表5:大模型预训练算力需求 5图表6:同等Token量下,模型越大效果越好 6图表7:缩放定律应该优先考虑参数量的放大 6图表8:大模型预训练算力需求 6图表9:“Chinchilla缩放定律”下不同体量模型预训练所需算力 7图表10:Transformer架构解码模块堆叠形成GPT模型基础架构 8图表11:大模型推理需要过程需要经过从文本嵌入到文本输出的过程 8图表12:大模型推理算力需求 9图表13:大模型推理算力需求测算 9图表14:人工反馈的强化学习的基本原理 10图表15:ChatGPT等大语言模型需要进行微调以实现效果对齐 10图表16:DeepspeedChat模型调优服务所需GPU核时数 图表17:不同参数体量模型30次调优算力需求 图表18:英伟达A100/A800加速卡性能 12图表19:大模型GPU需求测算 12图表20:模型厂商对服务器的需求测算 13图表21:全球AIGPU市场规模 13图表22:全球AI服务器市场规模 13图表23:国产主流AIGPU对比英伟达A系列GPU 14“ScalingLaw”驱动大模型算力需求持续增长Transformer的出现开启了大模型演化之路。大语言模型(LLM)是在大量数据集上预训练的模型,且没有针对特定任务调整数据,其在处理各种NLP(自然语言处理)任务方面显示出了较大潜力,如自然语言理解(NLU)、自然语言生成任务等。从LLM近年的发展情况来看,其路线主要分为三种:1)编码器路线;2)编解码器路线;3)解码器路线。从发展特点来看:1)解码器路线占据主导,归因于2020年GPT-3模型表现出的优异性能;2)GPT系列模型保持领先,或归因于OpenAI对其解码器技术道路的坚持;3)模型闭源逐渐成为头部玩家的发展趋势,这一趋势同样起源于GPT-3模型,而Google等公司也开始跟进;4)编解码器路线仍然在持续发展,但是在模型数量上少于解码器路线,或归因于其复杂的结构,导致其在工程实现上没有明显的优势。资料来源:《HarnessingthePowerofLLMsinPractice:ASurveyonChatGPTandBeyond》,YangJingfeng(2023)、华泰研究大模型或将向更大参数的方向不断演化。我们看到从GPT-1到GPT-4模型、从PaLM到Gemini模型,每一代模型的能力在不断强化,在各项测试中取得的成绩也越来越好。而模型背后的能力来源,我们认为参数和数据集是最重要的两个变量。从十亿规模,到百亿、千亿、万亿,模型参数量的增加类似人类神经突触数量的增加,带来模型感知能力、推理能力、记忆能力的不断提升。而数据集的增加,则类似人类学习知识的过程,不断强化模型对现实世界的理解能力。因此,我们认为下一代模型或仍将延续更大体量参数的路线,演化出更加智能的多模态能力。免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。资料来源:谷歌官网,华泰研究拆解来看,大模型的算力需求场景主要包括预训练、Finetune及日常运营。从ChatGPT实际应用情况来看,从训练+推理的框架出发,我们可以将大模型的算力需求按场景进一步拆分为预训练、Finetune及日常运营三个部分:1)预训练:主要通过大量无标注的纯文本数据,训练模型基础语言能力,得到类似GPT-1/2/3这样的基础大模型;2)Finetune:在完成预训练的大模型基础上,进行监督学习、强化学习、迁移学习等二次或多次训练,实现对模型参数量的优化调整;3)日常运营:基于用户输入信息,加载模型参数进行推理计算,并实现最终结果的反馈输出。资料来源:OpenAI、华泰研究预训练:缩放定律下算力需求有望持续增长大模型预训练效果主要由参数量、Token数量、计算量决定,且满足“缩放定律”。根据OpenAI在2020年发表的论文《ScalingLawsforNeuralLanguageModels》,在大语言模型训练的过程中,参数量、Token数量、计算量对大模型的性能表现有着显著影响。为了获得最佳性能,这三个因素必须同时放大。当不受其他两个因素的制约时,模型性能与每个单独因素呈幂律关系,即满足“缩放定律”。资料来源:《ScalingLawsforNeuralLanguageModels》,OpenAI,2020、华泰研究OpenAI认为模型预训练的计算量可以通过公式C≈6NBS来刻画。根据OpenAI在2020年发表的论文《ScalingLawsforNeuralLanguageModels》,预训练一个Transformer架构模型所需要的算力(C)主要体现在前向反馈(c1)和后向反馈(c2)过程,并主要由三个变量决定:模型参数量(N)、每步训练消耗的Token批量(B)、预训练需要的迭代次数(S)。其中,B、S的乘积即为预训练所消耗的Token总数量。基于此,我们可以通过C≈6NBS来刻画大模型预训练所需要的算力大小。资料来源:《ScalingLawsforNeuralLanguageModels》,OpenAI,2020、华泰研究其中,OpenAI认为模型参数量是最重要变量,参数越大模型效果越好。OpenAI认为,随着更多的计算变得可用,模型开发者可以选择分配多少用于训练更大的模型,使用更大的批处理,以及训练更多的步骤。假设计算量增长十亿倍,那么为了获得最优的计算效率训练,增加的大部分应该用于增加模型大小。为了避免重用,只需要相对较小的数据增量。在增加的数据中,大多数可以通过更大的批处理大小来增加并行性,而所需的串行训练时间只增加很少一部分。资料来源:《ScalingLawsforNeuralLanguageModels》,OpenAI,2020、华泰研究资料来源:《ScalingLawsforNeuralLanguageModels》,OpenAI,2020、华泰研究谷歌提出“Chinchilla缩放定律”,认为模型参数与训练数据集需要等比例放大以实现最佳效果。据谷歌DeepMind在2022年发表的《TrainingCompute-OptimalLargeLanguageModels》,模型预训练需要的Token数量和参数量的放大与模型性能之间的关系并不是线性的,而是在模型参数量与训练消耗Token数量达到特定比例的时刻,才能实现最佳的模型效果。为了验证这一规律,谷歌用1.4万亿个Tokens训练了一个700亿个参数的模型(“Chinchilla”结果发现其效果比用3000亿个token训练的2800亿参数模型Gopher更好。而DeepMind进一步的研究发现,计算最优语言模型的参数量和数据集大小的近似关系满足:D=20P,其中D表示Token数量,P表示模型参数量,即在此比例下满足“Chinchilla缩放定律”。资料来源:《TrainingCompute-OptimalLargeLanguageModels》,DeepMind,2022、华泰研究我们预计训练千亿参数模型所需算力在1万PFlop/s-day以上。我们假设不同参数体量的模型均满足“Chinchilla缩放定律”,由此测算不同模型所需的最优数据集大小及预训练所需的算力。以训练1000亿参数的大语言模型为例,“Chinchilla缩放定律”下所需的训练Token数量为2万亿个。根据OpenAI所提出的计算量公式C=6NBS,可以计算得到,训练1000亿参数模型所需的算力约1.39x10^4PFlop/s-day。同理,训练5000亿参数模型所需算力约3.47x10^5PFlop/s-day,训练1万亿参数模型所需算力约1.39x10^6PFlop/s-day。参数量(亿个)Token(亿个)算力需求(PFlop/s-day)模型15001.00x10^43.47x10^3模型210002.00x10^41.39x10^4模型330006.00x10^41.25x10^5模型450001.00x10^53.47x10^5模型5100002.00x10^51.39x10^6模型6200004.00x10^55.56x10^6资料来源:《TrainingCompute-OptimalLargeLanguageModels》,DeepMind,2022、华泰研究预测GPT模型底层架构由解码器模块构成。在GPT这类大语言模型中,解码模块相当于基本架构单元,通过彼此堆叠的方式,拼凑成最终我们看到的GPT模型底层架构。解码模块的数量决定了模型的规模,GPT-1一般有12个模块,GPT-2有48个,GPT模块数量越多,则意味着模型参数量越大,模型体积也越大。资料来源:《ImprovingLanguageUnderstandingbyGenerativePre-Training》,OpenAI,2018、华泰研究解码模块通过计算Token化的文本数据,实现大模型推理。据OpenAI在2020年发表的论文《ScalingLawsforNeuralLanguageModels》,大模型在完成训练之后,模型本身已经固定,参数配置完成之后即可进行推理应用。而推理过程实质上就是对大模型参数的再次遍历,通过输入文本编码后的向量,经过注意力机制的计算,输出结果并转化为文字。这一过程中,模型的参数量取决于模型层数、前馈层的层数、注意力机制层的头数(head)资料来源:《ScalingLawsforNeuralLanguageModels》,OpenAI,2020、华泰研究推理过程所需要的算力可以由公式C≈2NBS来刻画。由于解码模块在进行推理的过程中,主要执行前向传播,主要计算量体现在文本编码、注意力机制计算、文本解码等环节。根据OpenAI给出的计算公式,每输入一个Token,并经历这样一次计算过程,所需要的计算量cforward=2N+2nlayernctxdattn,其中公式后半部分nlayernctxdattn主要反映上下文窗口大小,由于这部分在总计算量中的占比较小,所需字节常以K级别表示,因此在计算中往往予以忽略。最终,我们得到大模型推理的计算需求为单次计算量与Token数量的乘积,即C≈2NBS。资料来源:《ScalingLawsforNeuralLanguageModels》,OpenAI,2020、华泰研究在ChatGPT同等访问量下,我们预计千亿模型推理所需算力需求在5000PFlop/s以上。据Similarweb数据,2024年3月ChatGPT官网访问量为18亿次。我们假设每次用户访问会进行10次问答,每次问答消耗的Token数量为800个,则计算得4月ChatGPT官网每秒消耗的Token数量为0.06亿个。考虑到算力基础设施建设是按照峰值需求而不是平均需求来确定,因此我们进一步假设峰值Token需求为均值的5倍。最后,假设不同参数模型拥有ChatGPT同等访问量,根据C≈2NBS公式,计算得1000、5000、10000亿参数模型的每秒推理算力需求分别为5555.6、27777.8、55555.6PFlop/s。参数假设1参数假设2参数假设3参数假设4参数假设5参数假设6推理算力需求(PFlop/s)2777.85555.616666.727777.855555.6111111.14月推理Token峰值消耗数量(亿个)4月秒均Token消耗量(亿个)0.060.060.060.060.060.064月访问量(亿次)每次访问提问次数(次)每次问答Token数量(个)800800800800800800峰值倍数555555模型参数量(亿个)5001000300050001000020000资料来源:Similarweb、华泰研究预测人类反馈预测的奖励观察强化学习算法行动人类反馈预测的奖励观察强化学习算法行动大模型完成预训练之后还需要进行参数调优以符合人类需求。一般而言,大语言模型在完成预训练之后,还需要经过持续的调优(Finetune)才能实现较好的运行效果。以OpenAI为例,模型调优的过程采用人类反馈机制(RLHF)进行。强化学习通过奖励(Reward)机制来指导模型训练,奖励机制可以视为传统模训练机制的损失函数。奖励的计算要比损失函数更灵活和多样(例如AlphaGO的奖励是对局的胜负代价是奖励计算不可导,不能直接拿来做反向传播。强化学习的思路是通过对奖励的大量采样来拟合损失函数,从而实现模型的训练。类似的,人类反馈也不可导,也可以作为强化学习的奖励,从而产生基于人工反馈的强化学习。奖励预测奖励预测环境环境资料来源:OpenAI官网、华泰研究以ChatGPT为例,调优过程主要经过三大步骤。基于人类反馈的强化学习技术,以ChatGPT的调优过程主要分三步进行:1)训练监督模型;2)训练奖励模型;3)进行PPO参数强化学习。调优之后,模型的参数会得到更新,所生成的答案也会更加接近人类所期望的结果。因此,调优过程对算力的需求实际上与预训练类似,都需要对模型参数进行遍历,但所使用的数据集较预训练会小得多。资料来源:OpenAI官网、华泰研究大模型调优的算力需求可以通过调优所需的GPU核时数倒推。对于大模型调优所需的算力需求,我们采用实际消耗GPU核时数的方式进行反推。据DeepspeedChat(微软旗下专注于模型调优的服务商进行一次130亿模型的调优,需要使用8张A800加速卡,耗费据此计算得,进行一次130亿参数模型的调优,需要耗费算力约0.9PFlop/s-day。以此类推,对300亿、660亿、1750亿参数模型进行一次调优所需的算力分别为1.9、5.2、8.3PFlop/s-day。模型1模型2模型3模型4模型参数(亿)3006601750单次Finetune算力(PFlop/s-day)训练时长(小时)950.4208xA800算力(TF32,PFlop/s-day)20.0注:调优1750亿参数模型使用的服务器实例为8台,对应64张A800加速卡资料来源:DeepspeedChat、英伟达、华泰研究预测我们预计每月调优万亿参数模型所需算力在2000PFlop/s-day以上。为了便于比较,我们进一步假设,不同参数体量的模型均采用单个A800服务器实例(即8张A800加速卡)进行调优训练,且训练时长与模型参数量成正比。此外,考虑到调优次数问题,我们假设每个月大模型厂商需要对模型进行30次调优。基于此,我们测算得1000亿参数模型每月调优所需算力为216PFlop/s-day,1万亿参数模型每月调优所需算力为2160PFlop/s-day。模型1模型2模型3模型4模型5模型6模型参数(亿)5001000300050001000020000单次Finetune算力(PFlop/s-day)36.072.0144.0训练时长(小时)356920834669213858xA800算力(TF32,PFlop/s-day)30次Finetune算力(PFlop/s-day)108.0216.0648.01080.02160.04320.0资料来源:DeepspeedChat、英伟达、华泰研究预测算力基础设施需求有望持续释放,关注算力产业机遇大模型训练/推理/调优带来算力硬件需求。对于大模型的计算需求,目前主流的做法是采用AI服务器进行承载,核心器件是AIGPU,如英伟达A100、H100、B100等。据英伟达,单张A100加速卡TF32峰值算力为312TFLOPS(采用稀疏技术)、FP16峰值算力为624TFLOPS(采用稀疏技术)。考虑到实际工作负载中,往往采用多卡互联进行模型的训练和推理,需要考虑有效算力问题。据SidBlack等人2022年发布的《GPT-NeoX-20B:AnOpen-SourceAutoregressiveLanguageModel》,多张A100互联下,单卡有效算力约117TFLOPS(TF32,采用稀疏技术即有效算力比例为37.5%。我们假设,推理过程的有效算力比例与训练过程相当,则单卡的推理算力为234TFLOPS(FP16,采用稀疏技术)。A100SXMA800SXM数据传输速率600GB/s400GB/s显存带宽2TB/s2TB/s显存容量80GB80GBFP649.7TFLOPS9.7TFLOPSFP3219.5TFLOPS19.5TFLOPSTF32312TFLOPS312TFLOPSFP16624TFLOPS624TFLOPSINT81248TFLOPS1248TFLOPS注:TF32、FP16、INT8均为采用稀疏技术下的算力性能资料来源:英伟达官网、华泰研究我们预计千亿模型训练/推理/调优的A100等效GPU需求量为2.8万张。对于大模型所需要的算力基础设施数量,我们以GPU/服务器数量进行测算。根据我们的测算框架,大模型对算力的总需求即为预训练、推理和调优的算力需求之和。考虑到模型预训练完成之后,服务器等基础设施通常会被用于下一代模型的开发,因此我们假设预训练、推理、调优的算力需求将并发出现。此外,我们假设训练、推理、调优均在一个月内完成,基于此,测算得1000亿参数模型对A100GPU的需求为2.8万张,5000亿模型的需求为21.8万张,10000亿模型的需求为63.4万张。我们进一步假设所有服务器均集成8张A100加速卡,则1000、5000、10000亿参数模型对AI服务器需求量分别为0.3、2.7、7.9万台。模型1模型2模型3模型4模型5模型6模型参数(亿)5001000300050001000020000总算力需求(PFlop/s-day)86914180772625648118163630577168893209预训练算力需求(PFlop/s-day)3472138891250003472221388889555555630天推理算力需求(PFlop/s-day)833331666675000008333331666667333333330次调优算力需求(PFlop/s-day)216648108021604320总GPU需求(A100,张)12891277601070222179406337272058844预训练GPU需求(张)989395735613989243956951582779推理GPU需求(张)118712374271225118708237417474834调优GPU需求(张)31623086151231总服务器需求(8卡,台)16113470133782724279216257355预训练GPU需求(台)49544521236549462197847推理GPU需求(台)14842968890314839296775935430次调优GPU需求(台)48233877资料来源:NVIDIA官网、华泰研究预测成熟大模型的运营有望带来3169亿美元的AI服务器市场空间。据中国科学技术信息研究所发布的《中国人工智能大模型地图研究报告》,截至2023年5月全球累计发布大模型202个,中美两国大模型的数量占全球大模型数量的近90%。我们预计,目前全球大模型数量仍在持续增加,但随着大模型的迭代,模型厂商之间的竞争或将逐步趋于均衡。基于此,我们保守假设未来或将有30家厂商实现1000亿参数模型的成熟运营,20家厂商实现5000亿参数模型的成熟运营,10家厂商实现10000亿参数模型的成熟运营。据京东,单台浪潮NF5688M6服务器配备8张A800加速卡,售价为159万元/台,按美元兑人民币1:7.23换算约22万美元/台。基于前述不同模型对服务器的需求,我们测算得全球大模型厂商服务器需求规模为3169亿美元。厂商数量(家)每个厂商的服务器需求量服务器单价(万美元)服务器需求规模(亿美元)1000亿模型3034702295000亿模型202724222119810000亿模型792161742总计3169注:美元兑人民币汇率假设为1:7.23资料来源:华泰研究预测对比之下,目前全球AI服务器市场规模仅为211亿美元,仍有较大成长空间。据Gartner,2023年全球AI芯片市场规模534亿美元,预计2024年同比增速将达25.7%。据IDC,2023年全球AI服务器市场规模211亿美元,预计2025年市场规模将达318亿美元,2024-2025年CAGR将达22.7%。对比来看,全球大模型厂商的持续竞争和成熟运营有望带来3169亿美元的空间,而当下市场规模仅为211亿美元,仍有较大成长空间。我们认为,随着全球大模型百花齐放,AI应用相继问世,训练/推理/调优需求有望带动算力基础设施建设需求快速增长。8007006005004003002001000全球AI芯片市场规模(亿美元)yoy25.7%25.7%20.9%20222023E2024E30%25%20%15%10%5%0%资料来源:Gartner、华泰研究350300250200150100500全球AI服务器市场规模(亿美元)yoy31831823.2% 17.3% 15.3%7.5%27.9%201920202021202220232025E30%25%20%15%10%5%0%资料来源:IDC、华泰研究国产化背景下,国产AIGPU有望加速追赶。2023年10月17日,美国商务部工业与安全局(BIS)发布针对中国的先进计算及半导体制造物项出口限制,国内对于高性能AI芯片进口受限。另一方面,我们也看到,目前国产AIGP中,基于华为昇腾910设计的Atlas300T算力性能较强,FP16计算性能在不考虑稀疏技术的情况下约为英伟达A800SXM的90%。但较英伟达最先进的B100等产品,仍有至少2代以上的产品差距。我们认为,AI芯片进口受限的背景下,AIGPU国产化有望提速,技术迭代之下,海内外差距有望逐步缩小。数据传输速率显存带宽显存容量FP64FP32TF32FP16INT8A100SXM600GB/s2TB/s80GB9.7TFLOPS19.5TFLOPS156TFLOPS312TFLOPS624TFLOPSA800SXM400GB/s2TB/s80GB9.7TFLOPS19.5TFLOPS156TFLOPS312TFLOPS624TFLOPSAtlas300T训练卡56.5GB/s2933MT/s32GBHBM/16GBDDR4---280TFLOPS-寒武纪思元370-614.4GB/s48GB-24-96256海光深算一号184GB/s1024GB/s32GB注:TF32、FP16、INT8均为不采用稀疏技术下的算力性能资料来源:英伟达官网、华为官网、寒武纪官网、海光信息招股书、华泰研究从产业链视角来看,主要相关公司包括:1)英伟达链:浪潮信息、工业富联、中际旭创、沪电股份等;2)昇腾链:神州数码等;3)海光链:海光信息、中科曙光等;4)EDA:华大九天等。宏观经济波动。若宏观经济波动,产业变革及新技术的落地节奏或将受到影响,宏观经济波动还可能对IT投资产生负面影响,从而导致整体行业增长不及预期。下游需求不及预期。若下游对算力需求不及预期,相关的算力投入增长或慢于预期,致使行业增长不及预期。测算结果可能存在偏差。本文中的测算过程中用到“缩放定律”、“Chinchilla缩放定律”等假设,存在一定主观性,若与实际模型训练过程不符,则可能导致算力需求存在偏差。分析师声明本人,谢春生,兹证明本报告所表达的观点准确地反映了分析师对标的证券或发行人的个人意见;彼以往、现在或未来并无就其研究报告所提供的具体建议或所表迖的意见直接或间接收取任何报酬。一般声明及披露本报告由华泰证券股份有限公司(已具备中国证监会批准的证券投资咨询业务资格,以下简称“本公司”)制作。本报告所载资料是仅供接收人的严格保密资料。本报告仅供本公司及其客户和其关联机构使用。本公司不因接收人收到本报告而视其为客户。本报告基于本公司认为可靠的、已公开的信息编制,但本公司及其关联机构(以下统称为“华泰”)对该等信息的准确性及完整性不作任何保证。本报告所载的意见、评估及预测仅反映报告发布当日的观点和判断。在不同时期,华泰可能会发出与本报告所载意见、评估及预测不一致的研究报告。同时,本报告所指的证券或投资标的的价格、价值及投资收入可能会波动。以往表现并不能指引未来,未来回报并不能得到保证,并存在损失本金的可能。华泰不保证本报告所含信息保持在最新状态。华泰对本报告所含信息可在不发出通知的情形下做出修改,投资者应当自行关注相应的更新或修改。本公司不是FINRA的注册会员,其研究分析师亦没有注册为FINRA的研究分析师/不具有FINRA分析师的注册资华泰力求报告内容客观、公正,但本报告所载的观点、结论和建议仅供参考,不构成购买或出售所述证券的要约或招揽。该等观点、建议并未考虑到个别投资者的具体投资目的、财务状况以及特定需求,在任何时候均不构成对客户私人投资建议。投资者应当充分考虑自身特定状况,并完整理解和使用本报告内容,不应视本报告为做出投资决策的唯一因素。对依据或者使用本报告所造成的一切后果,华泰及作者均不承担任何法律责任。任何形式的分享证券投资收益或者分担证券投资损失的书面或口头承诺均为无效。除非另行说明,本报告中所引用的关于业绩的数据代表过往表现,过往的业绩表现不应作为日后回报的预示。华泰不承诺也不保证任何预示的回报会得以实现,分析中所做的预测可能是基于相应的假设,任何假设的变化可能会显著影响所预测的回报。华泰及作者在自身所知情的范围内,与本报告所指的证券或投资标的不存在法律禁止的利害关系。在法律许可的情况下,华泰可能会持有报告中提到的公司所发行的证券头寸并进行交易,为该公司提供投资银行、财务顾问或者金融产品等相关服务或向该公司招揽业务。华泰的销售人员、交易人员或其他专业人士可能会依据不同假设和标准、采用不同的分析方法而口头或书面发表与本报告意见及建议不一致的市场评论和/或交易观点。华泰没有将此意见及建议向报告所有接收者进行更新的义务。华泰的资产管理部门、自营部门以及其他投资业务部门可能独立做出与本报告中的意见或建议不一致的投资决策。投资者应当考虑到华泰及/或其相关人员可能存在影响本报告观点客观性的潜在利益冲突。投资者请勿将本报告视为投资或其他决定的唯一信赖依据。有关该方面的具体披露请参照本报告尾部。本报告并非意图发送、发布给在当地法律或监管规则下不允许向其发送、发布的机构或人员,也并非意图发送、发布给因可得到、使用本报告的行为而使华泰违反或受制于当地法律或监管规则的机构或人员。本报告版权仅为本公司所有。未经本公司书面许可,任何机构或个人不得以翻版、复制、发表、引用或再次分发他人(无论整份或部分)等任何形式侵犯本公司版权。如征得本公司同意进行引用、刊发的,需在允许的范围内使用,并需在使用前获取独立的法律意见,以确定该引用、刊发符合当地适用法规的要求,同时注明出处为“华泰证券研究所”,且不得对本报告进行任何有悖原意的引用、删节和修改。本公司保留追究相关责任的权利。所有本报告中使用的商标、服务标记及标记均为本公司的商标、服务标记及标记。中国香港本报告由华泰证券股份有限公司制作,在香港由华泰金融控股(香港)有限公司向符合《证券及期货条例》及其附属法律规定的机构投资者和专业投资者的客户进行分发。华泰金融控股(香港)有限公司受香港证券及期货事务监察委员会监管,是华泰国际金融控股有限公司的全资子公司,后者为华泰证券股份有限公司的全资子公司。在香港获得本报告的人员若有任何有关本报告的问题,请与华泰金融控股(香港)有限公司联系。香港-重要监管披露•华泰金融控股(香港)有限公司的雇员或其关联人士没有担任本报告中提及的公司或发行人的高级人员。•沪电股份(002463CH)、中际旭创(300308CH华泰金融控股(香港)有限公司、其子公司和/或其关联公司实益持有标的公司的市场资本值的1%或以上。•海光信息(688041CH华泰金融控股(香港)有限公司、其子公司和/或其关联公司在本报告发布日担任标的公司证券做市商或者证券流动性提供者。•有关重要的披露信息,请参华泰金融控股(香港)有限公司的网页.hk/stock_disclosure其他信息请参见下方“美国-重要监管披露”。美国在美国本报告由华泰证券(美国)有限公司向符合美国监管规定的机构投资者进行发表与分发。华泰证券(美国)有限公司是美国注册经纪商和美国金融业监管局(FINRA)的注册会员。对于其在美国分发的研究报告,华泰证券(美国)有限公司根据《1934年证券交易法》(修订版)第15a-6条规定以及美国证券交易委员会人员解释,对本研究报告内容负责。华泰证券(美国)有限公司联营公司的分析师不具有美国金融监管(FINRA)分析师的注册资格,可能不属于华泰证券(美国)有限公司的关联人员,因此可能不受FINRA关于分析师与标的公司沟通、公开露面和所持交易证券的限制。华泰证券(美国)有限公司是华泰国际金融控股有限公司的全资子公司,后者为华泰证券股份有限公司的全资子公司。任何直接从华泰证券(美国)有限公司收到此报告并希望就本报告所述任何证券进行交易的人

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论