电子行业市场前景及投资研究报告:AI手机,AIGC端侧下沉趋势新一轮硬件创新_第1页
电子行业市场前景及投资研究报告:AI手机,AIGC端侧下沉趋势新一轮硬件创新_第2页
电子行业市场前景及投资研究报告:AI手机,AIGC端侧下沉趋势新一轮硬件创新_第3页
电子行业市场前景及投资研究报告:AI手机,AIGC端侧下沉趋势新一轮硬件创新_第4页
电子行业市场前景及投资研究报告:AI手机,AIGC端侧下沉趋势新一轮硬件创新_第5页
已阅读5页,还剩38页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

证券研究报告海外2024年01月09日AI

PC&AI手机专题报告:AIGC向端侧下沉成趋势,有望引领新一轮硬件创新评级:推荐(维持)相关报告最近一年走势《海外行业动态研究:大模型端侧落地成趋势,联想集团率先协同合作伙伴构建AI生态(推荐)*海外*陈梦竹》——2023-12-2815%10%沪深300恒生指数《海外行业动态研究:谷歌发布原生多模态大模型Gemini及新一代TPU系统CloudTPUv5p(推荐)*海外*陈梦竹》——2023-12-085%《游戏行业政策事件点评:监管处于征求意见稿阶段,关注后续落实力度(推荐)*海外*陈梦竹,尹芮》——2023-12-250%-5%-10%-15%-20%《AIGC专题报告:站在当前时点,怎么看AIGC板块投资逻辑(推荐)*海外*陈梦竹》——2023-12-20《2024年海外科技策略前瞻——底部向上,三大关键词:AI、出海、空间计算(推荐)*海外*陈梦竹,张娟娟,尹芮》——2023-12-192022/12/282023/04/272023/08/252023/12/23相对沪深300表现表现1M3M12M恒生指数10.9%8.5%-0.6%3.3%-14.3%-11.8%沪深3002核心提要p

从手机和PC的发展史来看,AIGC的赋能可能会将二者带入全新的发展阶段。就手机而言,我们总结其发展路径是:强调通信功能→智能手机→个人助理。手机相较于PC是更加贴近用户生活的终端设备,因而用户天然会产生这种需求,但现阶段的手机智能化程度不足,因而搭载大模型并发展出更多功能或成为一种趋势;PC早期能够普及正是因为其生产力工具的定位,AIGC作为生成式AI自然会与生产力工具相匹配以帮助用户提高生产效率,因而AIPC也顺势兴起。p

从硬件角度来看,AIPC/Phone需要解决三个问题:其一,用什么加速推理?其二,高规格大模型如何装载到设备里去?其三,推理作为高功耗任务,设备的散热系统应当如何配合?由此衍生出我们对PC及手机处理器、内存和散热系统的探讨。•

对于问题一,目前的AIPC/Phone厂商均已给出答案,过去在端侧做深度学习或者机器学习通常会使用GPU作为计算单元,但随着AIGC在端侧落地,人工智能任务专用处理器也顺势而生。GPU虽然相较于CPU拥有更强的并行计算能力,但其处理神经网络仍然效率偏低,且功耗较高。NPU相较于GPU的优化主要集中在与CPU的交互方面,NPU做的是张量计算,如果说GPU是把矩阵看做一个“计算单位”,那么NPU就是把神经网络看做一个“计算单位”,由此,NPU拥有了更优的能耗比。我们认为未来可能是CPU、GPU、NPU三U并存的时代,以GPU发展史作为参考,未来NPU可能也会同GPU一样,逐渐成为PC和手机必备的硬件之一,目前NPU仍然与CPU集成在一起,未来可能也会发展出拥有独立内存的类似于独显的形态,并成为PC产品定位的重要标准(如现在的高性能本、游戏本通常是独显,而轻薄本、商务本则一般为核显)。目前NPU的发展仍处于早期阶段,我们认为其重点主要是走量,即在PC上普及这一硬件;未来随着NPU逐渐为用户所接受并对性能提出更高要求,参考GPU,则可能会带来更多的溢价空间,这一收入我们认为主要是在上游硬件厂商(NPU供应商)、大模型供应商和终端设备生产商之间分配。•

对于问题二,目前PC和手机的内存相对较小,对大模型的承载能力有限,而大模型又是达到一定参数量级才会有智能的涌现,因而为了使大模型给用户带来更好的体验,一方面需要对模型进行裁剪和量化,另一方面也需要拔高设备的内存配置,使其在存储、传输和计算方面更加平衡。目前在终端设备落地的大模型仍然是以数十亿参数量级的为主,就性能方面尚有提升空间,未来高规格大模型产品化势必会对终端设备的内存提出更高要求。•

对于问题三,作为电子设备领域的重要一环,PC和手机的散热问题一直备受关注,作为高算力AI芯片的NPU会对设备的散热系统提出更高要求,因而随着搭载在AIPC和AIPhone上的模型规格不断提升,NPU性能释放可能会更加激进,我们认为这将带来电子产品散热方案的更新换代以及相关上下游的投资机会。p

大模型在端侧落地,主要受益方包括硬件(如NPU等)设计制造厂商、大模型提供商和终端设备生产商。尽管目前AIPC及AIPhone仍处于商业化早期阶段,但论及其商业模式,我们认为终端设备生产商可能是核心,原因如下:终端设备生产商是唯一直接对客的角色;此外,其亦须基于软硬件厂商协同构筑的底层生态(如Intel和微软的合作)将大模型预先装载进终端设备产品,这一生产过程的差异化竞争主要集中在散热模组设计、硬件组装能力和模型蒸馏水平等方面。从收入来看,终端设备生产商一方面可基于NPU这一新硬件对产品进行提价,另一方面向用户收取大模型及相关应用的服务费;从成本来看,终端设备生产商一方面须向硬件设计制造商采购基础部件,另一方面须向大模型提供商支付模型调用费。总结来说,终端设备生产商作为中间人,将模型、硬件和C端用户串联起来,赚取差价的同时也赚取服务费(如对于企业用户,卖设备的同时还提供模型部署服务),由此,终端设备生产商可能会终结此先大模型在云端通过API接口或类ChatGPT应用提供服务时以大模型厂商为核心的单一商业模式时代,并成为争抢流量入口的新生力量。3行业评级&投资建议&风险提示p

行业评级&投资建议:AI技术不断演进,大模型持续迭代并表现出向端侧下沉的趋势,我们看好AIPC和AI手机的投资机会,维持行业“推荐”评级。硬件方面,建议关注芯片和内存厂商,如英特尔、AMD、高通、海光信息、联发科、通富微电、聚辰股份和兆易创新等;模型方面,建议关注微软、谷歌、Meta等;终端设备方面,建议关注市场份额占比较高的PC/手机提供商及代工厂,如联想集团、华硕、戴尔科技、惠普、小米集团-W、三星电子、仁宝电脑、广达、纬创、英业达和光大同创等。p

风险提示:AIPC/手机商业化拓展不及预期;技术跨越替代,颠覆现有技术路径;行业竞争加剧风险;行业估值回调风险;各公司并不具备完全可比性,对标的相关资料和数据仅供参考。4目录一、PC/手机发展史及AIPC/手机必要性的探讨.....................................................................................................................................................7PC发展史:图形用户界面与鼠标驱动开启生产工具可能,迅驰时刻突破移动限制手机发展史梳理:无线手机诞生,历经1G到2G,模拟信号到数字信号的发展手机发展史梳理:iPhone开启智能手机新时代,移动互联网方兴未艾AIPC/手机作为端侧相较于云端能够解决数据安全、延迟等问题AIPC/手机作为去中心化的服务模式能够帮助云端分担算力成本各大厂商相继布局,AI终端浪潮蓄势待发,多款产品有望2024年上线AIPC或成为更高效的生产力工具,AI手机或进化为用户人格化的智能助理基于渗透率对AIPC出货量及增量收入空间的测算二、从硬件角度看AIPC/手机潜在的投资机会.......................................................................................................................................................16CPU架构:ARM与X86之争GPU发展史:诞生于专用性需求,作为辅助处理器执行并行计算任务2023年NVIDIA桌面专业级GPU一览NPU:诞生于神经网络计算的需求,相较于GPU同时兼顾专用性和能耗比不同于GPU与CPU的频繁交互,NPU加速神经网络计算效率更高手机端:处理器高度集成,在现有制程工艺下加入NPU或须在性能释放上做出让步手机端:处理器高度集成,在现有制程工艺下加入NPU或须在性能释放上做出让步(续)骁龙8Gen3让手机运行大模型提速,骁龙XElite助力高通切入AIPC赛道Intel发布首款集成式NPU,MeteorLake架构或带领数亿台PC进入AI时代NPU处理人工智能任务具有低功耗高效率优势,三颗U协同助力优化PCAI加速PC搭载NPU成为AIPC时代开启的重要标志,叠加Windows系统迭代或将带来换机潮目前端侧芯片算力对推理任务支持度的测算:文本类型任务目前端侧芯片算力对推理任务支持度的测算:图像类型任务相较于算力,未来PC和手机端搭载高规格模型最大的挑战或来自于内存为支持端侧运行高规格大模型,AIPC的散热模组可能会迎来重构5目录大模型在端侧落地或使AIPC/手机厂商成为这一服务模式下的流量入口三、AIPC/手机产业链相关标的........................................................................................................................................................................33联想集团:率先推出首款AIPC概念机,预计将于2024年下半年推出联想集团:发布AIPhone和功能性产品AITwin,后者同时赋能个人与企业用户vivo:蓝科技+6nm自研影像芯片V3+联发科天玑9300助力打造AI手机X100系列小米:计划在终端接入轻量化本地大模型,与WPSAI达成深度合作谷歌:正式发布Pixel8及Pixel8Pro手机,在Android14上推出AI功能Humane:推出专为与大语言模型交互而生的新式可穿戴设备AIPinAIPC/手机产业链相关标的..............................................................................................................................................................................40行业评级&投资建议&风险提示6一、PC/手机发展史及AI

PC/手机必要性的探讨7PC发展史:图形用户界面与鼠标驱动开启生产工具可能,迅驰时刻突破移动限制1971~19821983~20022003~20232024年及以后随着计算机性能的提升、体积的减小、成本的下降,个人PC产品出现。图形用户界面被引入PC,鼠标驱动引发交互形式的革命,PC开始大规模商业化落地并成为生产力工具。芯片组技术使PC具备移动性以及无线上网等功能。此外,GPU开始广泛用于个人PC,GPU计算时代由此开启。AIPC时代,NPU通过广泛应用于人工智能任务或帮助作为生产力工具的PC加速变革。2003年,Intel推出迅驰平台,将PentiumM处理器、Intel芯片组和802.11无线网络模块三者集成在一起,普及了笔记本无线网络的应用,也加速了笔记本向轻薄化的发展。19831971第一台个人PC:Datapoint22002023年9月19日,Intel正式发布基于Intel4制程工艺的首个处理器平台——MeteorLake,该架构首次将人工智能加速引擎(NPU)集成到PC处理器,由此,GPU、NPU、CPU等核心之间相互协同以承载对应的AI算力。据Intel的AIPC加速计划,其将在2025年前为超过100万台PC带来AI特性,并由计划于12月14日发布的Intel酷睿Ultra处理器率先推动。第一台使用GUI的电脑:AppleLisa2006年,NVIDIA发布首个通用GPU计算架构Tesla,其采用全新的CUDA架构,支持使用C语言进行GPU编程,可以用于通用数据并行计算。代表产品为G80。硬件方面:Lisa是一台一体机,12英寸单色屏幕,分辨率为720×365像素。其使用的CPU是摩托罗拉68000,运行频率为5MHz,内存为1MB,拥有2个软盘和1个5MB的硬盘。此外,苹果自行设计出MMU以进行内存管理(操作系统因此得以支持多任务处理,即可以同时运行多个程序)。软件方面:Lisa首创“双击鼠标”的交互形式,如双击图标会打开一个新窗口,通过标题栏可以拖动窗口直至用户释放按钮等;此外,Lisa捆绑了操作系统LisaOS和一个包含7个应用程序的办公套件,后者包含文字GPU:负责高性能、高吞吐场景,适用于融合了AI的媒体/3D/渲染通道。NPU:在低功耗的状态下,实现高效的AI终端化应用,适用于持续的AI。CPU:响应速度快,适用于轻量级、1981IBM5150搭载Intel8088处理器与微软的DOS1.0操作系统

处理、电子表格等应用。笔记本代表:Thinkpad系列

基于G80的独显:GeForce8800

单次推理的低延迟AI任务。资料:砍柴网,oldcomputers官网,《新媒体前沿》,IBM官网,联想集团官方公众号,36氪,cnBeta,热点科技,腾讯云开8发者社区,创业邦,倍优产业观察公众号,雷科技,IT之家,驱动之家,联想官网,国海证券研究所手机发展史梳理:无线手机诞生,历经1G到2G,模拟信号到数字信号的发展世代年代第一代(1G)1980s~1990s无线、模拟信号第二代(2G)1990s~2006关键词数字信号、内置游戏所谓移动,即无线。第一代移动通讯的特征是手机与基站之间通过模拟信号进行传输,仅能进行通话。缺陷是安全性和抗干扰能力差,且由于没有国际的通用标准,国际漫游成为问题。使用数字信号的2G移动通信拥有安全性更高、频谱利用率高、功能不仅限于通话、标准相对统一的优势。但其功能仍然相对单一,且网络容量仍然较为有限。特性代表厂商摩托罗拉摩托罗拉、爱立信、诺基亚代表产品2000.011983.06摩托罗拉19871995.01爱立信GH33719951999.10诺基亚3210诺基亚7110摩托罗拉3200(“大哥大”)第一台进入中国市场的手机摩托罗拉8900、9900第一款揭盖式手机第一款WAP的手机,首次把手机和互联网连接在一起DynaTAC8000X中国大陆出现的第一款GSM手机第一款内置天线机型9资料:中关村在线,北京通信业公众号,国海证券研究所手机发展史梳理:iPhone开启智能手机新时代,移动互联网方兴未艾世代年代第三代(3G)2007~2010s第四代(4G)2010s~2020s第五代(5G)2020s~关键词智能手机、操作系统、移动互联网更快更稳定、流媒体万物互联、AIGCiOS和Android先后问世,第三代移动通信3G网络与2G相比,能够提供更先进的服务功能并拥有更高的网络容量。在数据传输上,3G手机能够实现无线宽带接第四代移动通信4G相较于3G拥有更高的数据传输速率,

高网速、低时延、高容量的特性通过全面和安全的IP解决方案,4G能使手机用户实现在任何时间、任何地点接收语音、数据和流媒体,手游、使5G网络相较于4G拥有万物互联的能力,端侧大模型的发展或助力智能手机发展出更多功能。特性入或接近无线带宽接入,类似一个范围更大的WiFi网络。

长短视频、社媒直播、移动支付等得以迅速普及。代表厂商苹果、三星等苹果、、OPPO、vivo、小米、三星、、荣耀等代表产品20082008.102023.08HUAWEIMate602023.10小米14第二代iPhone3GG1(HTCDream)2007上市仅三天,iPhone

第一款采用Android操作系3G就售出100万部

统的手机2015.092018.10HUAWEIMate202019.04搭载麒麟芯片+鸿蒙

首款搭载小米澎湃OS

OS的手机第一代iPhoneiPhone6sOPPOReno资料:中关村在线,北京通信业公众号,中国新闻网,环球网,新浪手机,雷科技,ZAKER,每日经济新闻,苹果官网,官10网,OPPO官网,小米官网,国海证券研究所AI

PC/手机作为端侧相较于云端能够解决数据安全、延迟等问题p

AIPC/手机作为端侧大模型解决方案,能够帮助解决数据安全及隐私泄露等问题。对个人用户而言,可通过访问本地数据形成其数字孪生,大模型成为用户的个性化助理;对企业用户而言,可通过公司内网访问企业数据库以实现智能化协同办公。云端通用模型不具备服务某一领域的能力,需要接入数据后才具有专业能力,这意味着企业为获得行业模型,须将关键性资产——数据上传至云端,而一旦训练完成的模型被全行业共享,则意味着一定程度上企业竞争壁垒的消弭,由此催生出各企业在数据墙内训练专用模型的需求,AIPC/手机应运而生。p

绝大多数应用场景下用户对推理的时效性要求较高,在云端进行推理再将结果传回端和边缘因物理距离而不可避免存在延迟,AIPC/手机直接面向终端用户,因此能很大程度上缓解这一问题,为用户带来更好的使用体验。AIPC/Phone本地知识库压缩大模型核心是从本地提取信息,从而构建个性化的知识库。以联想集团的AITwin为例,个人AITwin能够在支持人工智能的设备和边缘设备上构建本地知识库,设备就好像是用户的数字延伸;企业级AITwin是一系列企业级人工智能应用的总和,它能够从企业或组织内部的智能设备、智能边缘和私有云上提取相关信息,归纳整合为判断和结论,并提出建议。AIPC发展初期NPU的算力有限,仅支持数十亿参数量的大模型,难以带动云端动则千亿参数量级的大模型,为使模型能够被搭载在端侧且尽可能不牺牲用户体验,大模型压缩技术至关重要,其实质是通过裁剪和量化的方法兼顾模型大小和性能。联想集团与合作伙伴协同打造的Hybrid

AI解决方案,该方案中存在三种性质不同的模型,即PublicFM、PrivateFM和PersonalFM,三种模型分别运行在不同的场景下,如PublicFM运行在云端服务器上,PrivateFM运行在企业私有或家庭服务器上,PersonalFM运行在PC或手机等终端智能设备上。11资料:极客公园,联想集团官方,联想集团官方公众号,热点科技,IT之家,国海证券研究所AI

PC/手机作为去中心化的服务模式能够帮助云端分担算力成本p

将大模型部署在端侧和边缘可能会带来公有云、私有云和本地数据中心市场需求,以及云、端和边缘算力的平衡。生成式AI在诞生之初主要通过云端以付费API接口的形式向用户提供服务,过去市场对算力的关注多集中于云服务提供商以及大模型训练阶段,但云端算力相对有限,在高峰期难以满足所有用户的推理需求,因而提高端侧和边缘算力,为推理加速成为市场新的焦点。通过智能终端(如AIPC/手机)和边缘设备为云端分担算力成本或使云、端、边缘算力需求走向平衡。落地方式服务模式对应模型主要通过API付费接口和类ChatGPT应用提供服务,前者面向B端用户,后者面向C端用户云端中心化服务模式公共大模型私有大模型&个人大模型主要通过各种智能终端,如AIPC/Phone提供服务,直接面向C端用户非中心化服务模式非中心化服务模式协同助力生成式AI落地边缘主要通过边缘服务器提供服务,面向B端用户私有大模型12资料:和讯网,国海证券研究所各大厂商相继布局,AI终端浪潮蓄势待发,多款产品有望2024年上线时间公司惠普百度宏碁相关布局2023年5月2023年5月2023年6月正在开发支持AI的PC,新型号产品最早可能在2024年投放市场。百度旗下小度科技宣布将进军手机市场,并发布旗下首款智能手机,整合小度AI技术能力。预计将把AIGC或其他AI应用导入到终端设备上,相关AI笔记本方案会在2024、2025年陆续推出。荣耀与AMD共同召开媒体沟通会,宣布将在2023年发布首款搭载AI引擎的笔记本电脑荣耀MagicXPro系列锐龙版;荣耀CEO赵明宣称,荣耀将在智能手机端推动部署端侧大模型,以此作为新一轮产品技术攻坚的起点。2023年7月2023年7月荣耀苹果建立了自己的大型语言模型Ajax,并推出代号为“苹果GPT”的内部聊天机器人,用于测试Ajax的功能;苹果每年将在人工智能的研究上投入10亿美元,目前正在对Siri进行改造,更智能的新版本Siri有望于2024年问世。2023年8月2023年8月2023年8月戴尔小米宣布将与英伟达合作推出生成式人工智能解决方案,帮助客户在本地快速安全地构建生成式人工智能(GenAI)模型。小爱同学正式升级生成式大模型,已经开始测试,小米很快会推出端侧AI大模型应用。将大模型深度整合进手机系统,实现更高层次的融合,智慧助手小艺接入AI大模型能力,可以进行自然对话、会议纪要和辅助文案生成、图片二次创作等。OPPO安第斯智能云团队打造了基于混合云架构的生成式大语言模型OAndesGPT。10月11日,OPPO宣布基于AndesGPT大模型打造的新版AI助手——新小布1.0开启了第一轮公测。2023年10月OPPO2023年10月2023年10月谷歌三星发布新一代智能手机Pixel8系列,Pixel8Pro是第一款可以直接在设备上运行谷歌AI模型的手机。计划将GalaxyS24,GalaxyS24+和GalaxyS24Ultra打造成“有史以来最智能的AI手机”,超越老对手谷歌和苹果,预计将于2024年年初发布。发布自研AI大模型矩阵,其中包括十亿、百亿、千亿三个不同参数量级的5款自研大模型,同时位列C-Eval、CMMLU双榜的全球中文榜单榜首,其中,70亿模型是面向手机打造的端云两用模型,vivo自研AI大模型将会首次应用在即将发布的OriginOS4系统中。2023年10月vivo资料券研究所:格隆汇,电商报,和讯网,华尔街见闻,IT之家,前瞻网,快科技,澎湃新闻,钛媒体APP,环球网科技,新京报,国海证13AI

PC或成为更高效的生产力工具,AI

手机或进化为用户人格化的智能助理AI

PCAI

手机会议助手/同声传译菜谱推荐设计/制图P图照片精修文档/电子邮件整理及撰写自动调节智能家居服务模式应用开发辅助日程差旅安排/报销旅游助手来电/短信处报表规整/数理据分析购物助手/商品推荐以对性能要求较高的高强度办公场景为主以轻生活场景为主,功能上更加精细化14资料:国海证券研究所基于渗透率对AI

PC出货量及增量收入空间的测算p

我们基于渗透率对AIPC的出货量进行测算,据Canalys,2024年全年PC出货量预计将达到2.67亿台,我们参考这一数据对PC出货量进行情景假设,在四种不同情景下分别为2.4/2.6/2.8/3.0亿台;同样对AIPC渗透率进行情景假设,在七种不同情景下分别为5%/10%/20%/30%/40%/50%/60%。通过测算可知,AIPC出货量区间为0.12~1.80亿台。对AIPC的提价水平进行假设,在AIPC提价1000元/台和1500元/台两种不同情景下的增量市场空间分别为120~1800亿元及180~2700亿元。AIPC渗透率假设IDC预测的AIPC在中国PC市场未来几年的渗透率AIPC出货量预期(单位:亿台)情景一5%情景二10%0.240.260.280.30情景三20%0.480.520.560.60情景四30%0.720.780.840.90情景五40%0.961.041.12情景六50%1.201.301.401.50情景七60%1.441.561.681.8085%100%80%60%40%20%0%80%75%55%情景一情景二2.42.62.83.00.120.130.140.15PC出货量假设(单位:亿台)8%情景三情景四2023E2024E2025E2026E2027E1.20AIPC渗透率假设若AIPC提价1000元/台带来的增量市场空间(单位:亿元)情景一情景一情景二情景三情景四30%720情景五40%960情景六50%1200130014001500情景七5%12013014015010%24026028030020%48052056060060%14401560168018002.42.62.83.0情景二780104011201200PC出货量(单位:亿台)情景三840情景四900AIPC渗透率假设情景四30%若AIPC提价1500元/台带来的增量市场空间(单位:亿元)情景一情景一5%情景二10%360情景三20%720情景五40%1440156016801800情景六50%1800195021002250情景七60%2.42.62.83.018010802160234025202700情景二1953907801170PC出货量(单位:亿台)情景三2104208401260情景四225450900135015资料:IT之家,Canalys,《AIPC产业(中国)白皮书》,国海证券研究所二、从硬件角度看AI

PC/手机潜在的投资机会16CPU架构:ARM与X86之争架构ARMX86专利权归属ARMIntel、AMD精简指令集(Reduced

Instruction

Set

Computers,RISC):基础指令集较少,衍生指令由基础指令组合而来。以乘法计算指令为例,精简指令集在执行计算时,会将其分作4个单周期

复杂指令集(Complex

Instruction

Set

Computers,CISC):经过长指令,即:①将内存A数据加载到寄存器,②将内存B数据加载到寄存器,③调用两个寄存器中的数据进行乘法计算,④将最终计算结果存入内存A期发展,各种为特定应用而生的扩展指令集层出不穷,指令集非常丰富。以乘法计算指令为例,复杂指令集在执行计算时,会将其视作1个指令,该指令需要多个处理器的时钟周期才能完成,相较于精简指令集的每一个单周期指令,这是一个长指令,一旦开始就必须执行完毕而无法在中途叫停,而精简指令集各单周期指令之间可以不是连续执行的复杂度目前除ARM外,应用于路由器的MIPS架构和应用于移动设备的RISC-V架构(开源)均属于精简指令集指令长度固定可变相对较低,由于“硬件软件化”,因此对编译器等软件的设计要求较高,

高,由于“软件硬件化”,因此对软件开发者友好,但对硬件开发者而硬件设计难度编译后的程序体积也较大→成本相对低廉言要求较高→成本相对高昂性能相对更强,功耗大,对散热要求高PC及服务器端特性低功耗高能效适用领域智能手机、平板电脑及可穿戴设备等移动端处理制程工艺为配合其应用场景,ARM架构处理器目前普遍采用5nm~7nm的制程工艺

X86架构处理器目前普遍采用7nm~10nm的制程工艺最早见于ARM架构,性能核与功效核并存的设计很好地兼顾了耗电与性异构计算大小核设计处理器代表厂商X86架构也逐渐开始采用这种设计思路以应对不同使用场景能之间的平衡高通、三星、联发科、海思、苹果等Intel、AMD、海光信息、兆芯等17资料:智趣东西,51CTO,量子位,芯智讯,只谈科技,环球时报,国海证券研究所GPU发展史:诞生于专用性需求,作为辅助处理器执行并行计算任务p

图像处理催生出专用处理器需求,GPU的设计初衷正是为了应对批量同类任务的高并行执行,随着工艺的发展,GPU开始不断在个人PC以及移动设备上普及,甚至于随着其性能呈指数级增长,独显势头渐起。处理器特性CPUGPU实时响应,对缓存要求高,

对任务进行批处理,对缓计算效率相对较低整型运算存要求低,计算效率高浮点运算运算方式计算模式

串行计算(任务类型多样)

并行计算(任务类型单一)擅长领域

资源调配、系统控制等

数值计算、图像处理等CPUGPUControl:控制器ALU:运算器Cache:缓存DRAM:存储器p

消费级GPU的发展历程:集显核显独显其与核显的区别是拥有独立的显存,不会占用系统内存,一般是单独插在主板相应的接口上,其相较于核显拥有更好的性能和散热表现,常见于游戏本和工作站。集成在主板北桥上,由于集成在主板上,因此与CPU之间的协调效率不高,在性能方面有一定的局限性。将GPU集成在CPU内部,这种设计使两者的协调效率得到了明显的提升,是目前市面上常见的消费级GPU存在形式之一。注:CPU进入“后摩尔时代”,使其在性能升级和优化层面面临较大限制;与此同时,GPU仍然遵循摩尔定律预言的性能呈指数级增长。18资料:51CTO,科Way,智通财经,电脑装配网,太平洋消费网,国海证券研究所2023年NVIDIA桌面专业级GPU一览GPU规格性能GPU光追核心(RT

Core)

(Tensor

Core)AI核心单精度性能(TFLOPS)AI运算性能(TFLOPS)CUDA核心18,17610,75210,2408,1927,1686,1443,328896显存容量

显存带宽NVLink双精度加速ECCNVIDIA

RTX

6000NVIDIA

RTX

A6000NVIDIA

RTX

A5500NVIDIA

RTX

A5000NVIDIA

RTX

A4500NVIDIA

RTX

A4000NVIDIA

RTX

A2000NVIDIA

T1000142(3rd

Gen)

568(4th

Gen)48GB48GB24GB24GB20GB16GB960GB/s768GB/s768GB/s768GB/s640GB/s448GB/s288GB/s160GB/s80GB/s91.138.734.127.823.719.27.91457309.7272.8222.2189.2153.463.9√√√√√√√84(2nd

Gen)80(2nd

Gen)64(2nd

Gen)56(2nd

Gen)48(2nd

Gen)26(2nd

Gen)336(3rd

Gen)320(3rd

Gen)256(3rd

Gen)224(3rd

Gen)192(3rd

Gen)104(3rd

Gen)√√√√6GB/12GB4GB/8GB2.5NVIDIA

T4003844GB1Quadro

GV1005,12064032GB870GB/s√14.8√118.5√19资料:萤火虫测评荟,国海证券研究所NPU:诞生于神经网络计算的需求,相较于GPU同时兼顾专用性和能耗比p

NPU(NeuralnetworkProcessingUnit),即神经网络处理单元,可在电路层模拟人类神经元和突触,并用深度学习指令集直接处理大规模的神经元和突触,一条指令完成一组神经元的处理。相较于CPU和GPU的冯诺依曼结构,NPU通过突触权重实现存储和计算一体化,从而提高运行效率。NPU是ASIC芯片的一种,目前主要应用于深度学习和机器学习等人工智能任务。AI芯片类型GPUASICFPGAApplicationSpecificIntegratedCircuit,即专用集成电路,有全定制和半定制两种设计方式。ASIC芯片可根据终端功能的不同分为TPU、DPU、VPU和NPU等。其中,TPU为张量处理器,专用于机器学习,如Field-ProgrammableGate

Array,即现场可编程门阵列,其是作为专用集成电路领域中的一种半定制电路而出现的,既解决了定制电路的不足,又克服了原有可编程器件门电路数有限的缺点简介图形处理单元Google于2016年5月研发针对Tensorflow平台的可编程AI;DPU即DataProcessingUnit,可作为数据中心等计算场景的加速引擎;VPU即VideoProcessingUnit,是智能视频处理ASIC芯片非常适合人工智能相关的应用场景。整体而言,①现场可编程性(灵活性):可使FPGA通过编程实现任意芯片的逻辑功能,这也是其被称为“万能芯片”的原因。逻辑芯片如ASIC类似于一张出厂时就写有数据且不可擦除的CD,用户只需要放在CD播放器里就可以听到音乐;而FPGA类似于一张空白的CD,需要用户自己使用刻录机烧写数据内容到盘里,且用户可以擦除上面的数据,反复刻录;②开发周期短:逻辑芯片如ASIC制造流程包括逻辑实现、布线处理和流片等多个步骤,而FPGA无需布线、掩膜和定制流片等,因而可以简化开发流程,缩短开发周期①性能相对较强:例如NVIDIA首款专门为深度学习设计的芯片TeslaP100数据处理速度是其2014年推出GPU系列的12倍;Google为机器学习定制的芯片TPU将硬件性能提升至相当于当前芯片按照摩尔定律发展特性通用性相对较好

7年后的水平;②体积小重量轻:ASIC芯片作为集成电路技术与特定用户的整机或系统技术紧密结合的产物,与通用集成电路相比具有体积更小、重量更轻等优点能耗成本高低低高较高高中较高高算力代表厂商NVIDIA、AMDGoogle、Intel、NVIDIA、寒武纪、澜起科技、海思、地平线等Intel、AMD、百度等20资料:电子工程专辑,半导体圈,电子工程世界,浪潮企业级解决方案,格隆汇,十大品牌网,芯智讯,国海证券研究所不同于GPU与CPU的频繁交互,NPU加速神经网络计算效率更高GPU的加速NPU的加速FPGA内部架构图p

GPU仅执行矩阵乘法和加法的并行计算,神经网络p

NPU与GPU的区别在于每层神经元的计算结果不用输出到主内存,而是按照神经网络的连接直接传递到下层神经元继续计算,因此其在运算性能和功耗上都得到很大提升。p

FPGA与CPU、GPU以及以NPU为代表的ASIC芯片等的核心区别是:其底层逻辑运算单元的连线和逻辑布局未固化,因而能够满足用户自行设计、研制和生产集成电路的需求。模型的构建和数据流的传输仍然在CPU上进行。p

流程:•

CPU加载权重数据,按照代码构建神经网络模型,将每层的矩阵运算通过CUDA或OpenCL等类库接口传送到GPU上实现并行计算,输出结果;•

CPU调度下层神经元组矩阵数据计算,直至神经网络输出层计算完成,得到最终结果。p

流程:p

FPGA的构成:CPU在整个运行过程中主要是负责数据的加载和业务流程的控制,其将编译好的神经网络模型文件和权重文件交由NPU后即等待最终结果的输出。•

可编程逻辑块(CLB):可编程电路,是实现逻辑功能的基本单元,通常规则排列成一个阵列,散布于整个芯片中。•

输入/输出模块(IOB):可编程电路,主要完成芯片上的逻辑与外部引脚的接口。p

CPU与GPU如何交互:•

获取GPU信息,配置GPUid;•

加载神经元参数到GPU;•

GPU加速神经网络计算;•

接收GPU计算结果。p

NPU与GPU如何交互:•

向NPU传入模型文件,得到模型task;•

获取task的输入输出信息;•

拷贝输入数据到模型内存中;•

运行模型,得到输出数据。•

可编程互连资源(PIR):可编程电路。•

静态存储器(SRAM):用于存放编程数据。p

主要应用于智能手机、便携式移动设备及汽车等。21资料:51CTO,半导体圈,国海证券研究所手机端:处理器高度集成,在现有制程工艺下加入NPU或须在性能释放上做出让步CPUAI相关(TPU/NPU

etc.)厂商产品线最新型号制程GPU代表机型核心数量核心频率(GHz)骁龙400系列(适用于入门级和低端手机,性能较低,适合日常使用)Adreno613955MHz骁龙4Gen24nm双核A78+六核A552.2+2.0-Redmi12、RedmiNote12R骁龙600系列(适用于中端手机,性能较强,能够满足大部分用户的需求)骁龙6Gen14nm4nm四核A78+四核A552.2+1.8Adreno710AI性能增加3倍AI性能提升2倍荣耀X50、iQOOZ8X高通骁龙700系列(适用于高端手机,性能更强,适合游戏和多媒体应用)单核X2+单核A710+四核A510Adreno725580MHzrealmeGTNeo5SE、RedmiNote12Turbo、小米POCOF5骁龙7+Gen22.91+2.49+1.8Hexagon芯片:新增对于INT4精度AI计算的支持,与INT8相比,INT4将带来60%的能效提升和90%的AI推理性能提升小米13/小米13Pro/小米13Ultra、vivoX90Pro+/XFold2、荣耀Magic5/5Pro/5至臻版、三星GalaxyS23/S23+/S23Ultra骁龙800系列(适用于旗舰手机,性能最强,能够处理高负荷的任务)单核X3+双核A715+双核A710+三核A510Adreno740680MHz骁龙8Gen24nm3.2+2.8+2.8+2.06核,峰值性能提升20%,光线追踪性能达到4倍NPU性能提升2倍,具有16核(35TOPS)的神经网络引擎,可加速机器学习A17ProA163nm4nm6核(2性能核4能效核)

3.78+2.11iPhone15Pro/15ProMax苹果系列Apple

A具有16核(17TOPS)的神经引擎,可加速机器学习iPhone14Pro/14ProMax、iPhone15、iPhone15Plus6核(2大核4小核)3.46+2.025核HUAWEIMate60/Mate60Pro/Mate60Pro+、HUAWEIMateX58核(1超大核3大核4小核)Maleoon910308~750MHz麒麟9000S麒麟9000E-2.62+2.15+1.533.13+2.54+2.05-海思麒麟系列8核(1超大核3大核4能效核)Mali-G78MP22,8核NPU采用双核设计(一大核一小核)5nmHUAWEIMate40注:表格内容为根据公开资料信息汇总整合而成,或与实际参数存在出入,仅供参考。22资料:驱动之家,快科技,高通官方,天极网,九锋网,AI奇点,新智元,IT之家,国海证券研究所手机端:处理器高度集成,在现有制程工艺下加入NPU或须在性能释放上做出让步(续)CPUAI相关(TPU/NPU

etc.)厂商产品线最新型号制程GPU代表机型核心数量核心频率(GHz)Mali-G57MC2天玑6000系列天玑6100+6nm双核A76+六核A552.2+2.0--realme11x天玑7000系列(入门级)Mali-G610MC4天玑7200Ultra天玑82004nm4nm双核A715+六核A510四核A78+四核A55--联发科RedmiK60E、vivoS16Pro、vivoV27Pro、RedmiNote12TPro(Ultra)、vivoS17Pro、OPPOReno10Pro、小米Civi3(Ultra)天玑8000系列(中高端)Mali-G610MC6950MHz3.1+2.0MediaTekAPU580MediaTekAPU690赋能AI超级分辨率(AI-SR)和AI降噪(AI-NR)等应用的省电技术天玑9000系列(旗舰级)单核X3+三核A715+四核A510Immortalis-G715iQOONeo8Pro、vivoX90s、RedmiK60至尊版、小米13TPro天玑9200+Exynos1380Exynos22004nm3.35+3.0+2.02.4+2.0Mali-G68MP5608MHz内置AI引擎,其增强型NPU的算力为4.9TOPS5nmLPE四核A78+四核A55GalaxyA54、GalaxyM54三星谷歌系列Exynos其NPU具有乘法累加运算(MAC)操作功能,相较于上一代AI性能提升一倍以上,且支持FP16、INT8、INT16等数据格式Xclipse9201.3GHz(AMD单核X2+三核A710+四核A510GalaxyS22、GalaxyS22+、GalaxyS22Ultra4nm4LPE5nm2.8+2.52+1.822.85+2.35+1.8RDNA2)搭载神经网络处理器Next-genTensorProcessingUnit(TPU)双核X1+双核A78+四核A55Mali-G710MP7,8核Tensor

G2Pixel7/7Pro注:表格内容为根据公开资料信息汇总整合而成,或与实际参数存在出入,仅供参考。23资料:驱动之家,联发科官网,三星官网,新品问问,IT之家,国海证券研究所骁龙8Gen3让手机运行大模型提速,骁龙

X

Elite助力高通切入AI

PC赛道p

高通在2023骁龙技术峰会上发布用于AI手机的骁龙8Gen3和用于AIPC的骁龙X

Elite,率先成为同时抢占生成式AI应用落地的两个端侧赛道的芯片厂商。就手机端而言,搭载了骁龙8Gen3的手机运行StableDiffusion模型,只用0.6秒即在本地生成了一张图像,其相较于骁龙8Gen2的15秒很大程度上优化了移动终端生成式AI的推理速度;就PC端而言,高通开创性地推出骁龙XElite平台,该处理器不仅拓展了生成式AI应用的广度,也是高通强势切入PC市场的重要举措。HexagonNPU——双平台并进AI手机AIPC骁龙8Gen3采用的高通AI引擎拥有面向移动终端的强大HexagonNPU,集成了升级后的硬件加速单元、微切片推理单元、加强张量、标量和矢量单元,所有单元共享2倍带宽的大容量共享内存。同时支持INT8+INT16的混合精度以及INT4、INT8、INT16和FP16的所有精度。据机器之心报道,其性能较前代提升98%,能效提升40%。骁龙8Gen3首次支持运行100亿参数的模型,规模迈入百亿量级。同时将StableDiffusion生成图像的时间降到了1秒之内,创下最快速度。在跑Meta大语言模型Llama2-7B时,骁龙8Gen3每秒可以生成20个token,同样是手机终端侧最快之一。骁龙XElite处理器采用4nm制程工艺,集成定制的高通OryonCPU,据机器之心报道,其运行速度是Intel12核处理器的2倍,功耗比Intel竞品低68%,高峰时段的运行速度比苹果M2快了50%。骁龙XElite专为AI打造,其采用业界领先的、集成HexagonNPU的高通AI引擎,异构算力高达75TOPS,支持在终端侧运行超过130亿参数的生成式AI模型,面向70亿参数大模型每秒生成30个token,AI处理速度是竞品的4.5倍。据高通官方,搭载骁龙XElite的PC预计将于2024年中面市。24资料:机器之心,高通官网,国海证券研究所Intel发布首款集成式NPU,Meteor

Lake架构或带领数亿台PC进入AI时代p

MeteorLake是Intel首款集成了NPU的处理器产品,能在PC上实现高能效本地推理。在CPU和GPU之外,NPU能以更好的能效比实现对人工智能任务不同维度的加速,如视频会议时的背景虚化、眼睛角度矫正以及对人的追踪等。通过低功耗的人工智能加速模块,可以一定程度降低CPU和GPU的使用,以换取笔记本更好的电池续航。MeteorLake被分为四个部分:SoC、IO、CPU和GPU,NPUAI加速引擎内置于SoC模块。GPU、NPU、CPU如何分工协作适合高性能、高吞吐需求的AI工作,如融合了AI的媒体/3D/渲染通道等。GPUNPU低功耗的AI引擎,适用于持续的AI工作。CPU响应快,适用于轻量级、低延迟需求的AI工作。NPU支持的神经网络生成式AI+NLP计算机视觉图像分类图像增强协作转换器编码器风格转移超分辨率背景分割大型语言模型(LLaMAV2)生成对抗网络物体检测图像分割深度提取自动重新构图眼睛注视矫正音频降噪图像生成(StableDiffusion)音频生成语音转文本25资料:机核,热点科技,盒六网,国海证券研究所NPU处理人工智能任务具有低功耗高效率优势,三颗U协同助力优化PCAI加速Stable目前,Intel已经开始与软件开发商接触以推动终端AI的生态应用,例如,通过Diffusion中Unet+、Unet-构成的图像生成在NPU上具备最低的功耗和最高的效率,而如果让NPU和GPU配合承担一部分工作,则能在最短的时间内完成任务。WindowsStudioEffects调用NPU,以使Teams通过OpenVINO引擎实现人物背景虚化;AdobePhotoshop调用DirectML进行AI加速等。p

OpenVINO是Intel研发的专门用于优化和部署人工智能推理的工具包,能够通过CPU、GPU和NPU资源的动态调整以实现AI加速。应用ONNXRT(开源)AIAPIDirectMLOpenVINO(Intel)NPUUMD驱动程序软件堆栈库、编译器驱动程序MLAS库MKLDNN库GPUUMD驱动程序WDDMKMD驱动程序MCDMKMD驱动程序NPU固件显卡固件硬件CPUGPUNPU26资料:盒六网,国海证券研究所PC搭载NPU成为AI

PC时代开启的重要标志,叠加Windows系统迭代或将带来换机潮p

NPU作为人工智能相关任务专用引擎成为PC的核心零部件之一为AIGC在端侧落地打开可能性,是AI时代PC产品的重要革新。NPU相较于GPU拥有更优的能耗比,这意味着随着NPU在PC上普及,其与GPU的分工或将更加明确。此先作为图像处理专用芯片的GPU亦常用于深度学习相关领域,对矩阵加乘的并行计算能力使GPU在NPU之前一直是AI模型训练和推理倚赖的重要硬件单元。随着Transformer成为LLM的主流架构,并将CV和NLP这两个研究分支统一起来,神经网络成为构建AI模型的基本单元,NPU作为张量处理器能够在更短的时间内完成大规模神经网络计算任务,因而其相较于GPU是更适合人工智能相关任务的加速引擎。NPU将作为端侧重要的基础设施之一为PC端搭载大模型提供前提条件,其普及标志着AIPC时代的来临。p

PC出货量高企往往与Windows操作系统的重要版本更新相伴相生,考虑到WindowsCopilot和内置于PC的本地大模型在功能上互为补充,微软预计于2024年发布的Windows12操作系统有望成为推动换机潮的另一个重要因素。内置于PC的大模型主要是从本地如硬盘中提取用户信息进行推理,而WindowsCopilot更多的还是从云端如OneDrive中获得数据,在某些对数据私密性要求较高的场景下前者相对适用,但内置于PC的大模型和WindowsCopilot并不完全是竞对关系,而是相互补充,从而为终端用户提供更好的AIPC使用体验。2009~2023

PC季度出货量(in

million

units)100

Windows

7Windows

8Windows

8.1Windows

10Windows

1190807060504027资料:微软官网,PChome电脑之家,稀土掘金,快科技,国海证券研究所目前端侧芯片算力对推理任务支持度的测算:文本类型任务p

根据经验公式,大模型在推理过程中每个token需要进行约2N次计算,其中N为模型参数量。我们假设推理时的硬件利用率为50%,模型参数量分别为5B/50B/150B。•

AI芯片算力为10TOPS时完成各种任务所需时长的测算(单位:秒):长生短(如提取摘要)情景二短生长(如内容创作)情景二情景(英文)文本模型参数量情景一情景三10000情景一情景三10000输入输出2000100500050075075075050505010001000100010050002502502505B5.656.0168.014.7146.7440.028.7286.7860.02.813.6136.0408.027.3273.3820.050B28.084.0150B•

AI芯片算力为30TOPS时完成各种任务所需时长的测算(单位:秒):长生短(如提取摘要)情景二短生长(如内容创作)情景二情景(英文)文本模型参数量情景一情景三情景一情景三输入输出20001005000500100001005000100005B1.94.99.695.6286.70.99.34.545.3136.09.191.150B18.756.048.9146.7150B28.0273.3•

AI芯片算力为100TOPS时完成各种任务所需时长的测算(单位:秒):长生短(如提取摘要)情景二短生长(如内容创作)情景二情景(英文)文本情景一情景三情景一情景三输入输出20001005000500100001005000100005B0.65.61.52.90.32.88.41.42.7模型参数量50B14.744.028.786.013.640.827.382.0150B16.828资料:OneFlow,国海证券研究所目前端侧芯片算力对推理任务支持度的测算:图像类型任务p

基本思路和假设同上,模型参数量分别为7B/15B/50B。根据OpenAI,1张高分辨率图像=85+170*(图像分辨率/512×512)tokens。•

AI芯片算力为10TOPS时完成各种任务所需时长的测算(单位:秒):图像分辨率情景(高分辨率)图像模型参数量情景一512×5120.7情景二1024×10242.1情景三分辨率7B512×1024/1024×5121.22.68.515B50B1.54.65.115.3•

AI芯片算力为30TOPS时完成各种任务所需时长的测算(单位:秒):图像分辨率情景二1024×10240.7情景(高分辨率)图像情景一512×5120.2情景三分辨率7B512×1024/1024×5120.40.92.8模型参数量15B50B0.51.51.75.1•

AI芯片算力为100TOPS时完成各种任务所需时长的测算(单位:秒):图像分辨率情景二1024×10240.2情景(高分辨率)图像情景一512×5120.1情景三分辨率7B512×1024/1024×5120.10.30.9模型参数量15B50B0.20.50.51.529资料:OpenAI官网,国海证券研究所相较于算力,未来PC和手机端搭载高规格模型最大的挑战或来自于内存p

大模型的落地不仅需要算力的配合,更需要足够的内存空间用于部署。目前在端侧落地的大模型以数十亿量级参数为主,更高规格的模型由于需要更多的内存占用,因而从短期来看难以实现产品化。解决路径方面,在NPU高度集成的情况下,需要拔高终端本身的内存配置;若未来NPU同GPU一样独立出来,则需要进一步发展其显存以使芯片的存储、传输和计算能力达到平衡,从而为终端模型运行在理想状态下提供全方位支持。•

以vivo为例,探讨不同规格模型的运行内存占用情况(目前手机主流的运行内存档位是8G~12G):参数量1B(经优化后的)内存占用对手机内存配置的最低要求目前市面上的手机基本都能运行这一规格的模型8G落地情况1G4G-已实现产品化,但性能较差,难以满足用户需求已实现产品化,是vivo目前的最优解决方案未实现产品化7B13B12G内存的手机也难以保证使用体验•

以LLama2(有7B、13B和70B三个版本,是搭载在端侧的主力模型之一)为例,探讨模型参数量、数据精度和内存占用情况的关系:数据精度内存占用情况(G)INT4INT8FP16FP327B3.36.513.026.1参数量13B70B6.112.165.224.248.432.6130.4260.830资料:腾讯科技,新智元,高通中国,菜鸟笔记,国海证券研究所为支持端侧运行高规格大模型,AI

PC的散热模组可能会迎来重构p

散热能力是高算力芯片的一个主要瓶颈,随着搭载在AIPC和AI手机上的模型规格不断提升,NPU性能释放可能会更加激进,为配合硬件升级,相较于传统PC/手机,AIPC/手机可能会给出全新的散热解决方案。从数据中心来看,关键痛点是耗电和散热,在芯片的有限体积内,如何将高集成、高能量密度产生的热值和热效应准确计算并顺利排出,已经成为多源异构芯片3D封装中最具挑战性的问题。目前的消费电子终端,手机方面,不锈钢VC均热板开始逐渐取代铜VC均热板成为散热主力;PC的散热方案一般以组合的形式呈现,而散热模组(ThermalModule)从结构上看主要包括散热底座、热管、散热鳍片、散热风扇等物件。现阶段PC的散热技术简介这种技术利用热量对流扩散的特性,以空气为导体顺应风速的流动,带走PC硬件所产生的热量。这种技术的优势在于实用性风冷散热技术液冷散热技术强,任何硬件都可以运用风冷散热进行降温,同时安装也较为简单,仅需将风扇安置在相应的硬件上方即可。并且它还具备安全性高、易维护、不易损坏三大特点。水冷散热一般由热交换器、循环系统、水箱、水泵以及关键的水来构成。常规来说,水本身的导热性不如风冷散热,但水的流动特性所带来的热量传导效率超越风冷的速度,进而创造出更快的散热效果,再配合制冷液和高功率制冷系统,就使得具备更大热容量的水,带来了更高的散热效率。同时水冷系统的散热特性更加稳定,不会因为长时间运行而产生散热瓶颈期。•

散热鳍片:简称散热片,是直接与芯片接触的介质,直接吸收热量。散热鳍片的材质对于散热效果有不同影响,如,铝制鳍片的成本低,散热效果较好,而铜制鳍片导热更快。考虑到铝制鳍片需要达到一定规模体积且需要一定数量热管才能完全发挥作用,因此在笔记本电脑中,铜制鳍片会更为合适。此外,散热鳍片的表面积大小也会影响最终的散热效果,表面积越大,散热效果越好。•

热管:其散热效率主要与直径、数量、长度、弯曲程度以及扁平程度有关。通常而言铜管越扁,热对流越慢,导热性能越差。2根热管足以应对大部分不超频家用以及办公电脑CPU满负载的发热量,高端CPU则需要配置4~8根导热铜管。综合而言,热管从芯片到鳍片的距离越短、直径越粗、弯折次数越少、弯折角度越小、数量越多,散热性能越好。这种技术一般是作为风冷和水冷的补充。VC真空腔均热板通常被置于芯片和铜质热管之间,相较于固态金属或者传统铜质热管所带来的金属传导散热,它将散热面积覆盖得更大,让热量得以更均匀地导出(真空腔均热板通过腔内导热纹理扩大了热交换面积,让高温区域的热量以蒸汽的形式迅速均匀地导出)VC均温板散热技术31资料:集微网,中国财富网,鸿富瀚科技官网,国海证券研究所大模型在端侧落地或使AI

PC/手机厂商成为这一服务模式下的流量入口p

大模型在端侧落地的主要受益方包括硬件(以NPU为主)设计制造商、大模型提供商以及终端设备(AIPC/手机)厂商,其中终端设备厂商作为唯一直接面向C端用户的角色,可能会成为这一服务模式下的流量入口。大模型的两种商业模式产业链逻辑在云端通过付费API接口或类ChatGPT应用提供服务在端侧通过AIPC/手机提供服务企业用户大模型提供商企业用户个人用户算力提供商大模型提供商核心终端设备厂商核心个人用户硬件设计制造商预先搭载大模型/大模型商店等(可能也会上线自研模型),重点是打通从硬件到操作系统再到大模型的整个链条,并通过独家组装、设计、优化以及模型蒸馏等能力使模型发挥出最佳性能生态构建插件商店/GPTs应用商店等,重点是深挖开发者社区对终端设备厂商而言,一方面可就NPU对产品进行提价;另一方面可能会向用户收取大模型及相关应用的服务费。成本主要由硬件采购成本以及向大模型提供商支付的费用构成。综合看来,终端设备厂商主要扮演中间人角色,负责将整个产业链条串联起来,并基于其组装、设计、优化以及服务能力赚取“差价”利润对大模型提供商而言,就API接口,采取按量计费模式;就类ChatGPT应用,采取订阅制;就插件商店和GPTs应用商店,采取收入抽成模式。成本主要由GPU采购成本、模型训练成本(如电费等)、数据成本(或有)以及人力成本构成变现与收入分配32资料:机器之能,ChatGPT官网,国海证券研究所三、AI

PC/手机产业链相关标的33联想集团:率先推出首款AI

PC概念机,预计将于2024年下半年推出p

2023年10月,联想集团在第九届联想创新科技大会上展示了其人工智能个人电脑(AIPC)产品,该产品预计将于2024年下半年推出。据联想官方,其AIPC能够创建个性化的本地知识库,并通过模型压缩技术运行个人大模型,实现用户与人工智能的自然交互。AIPC的两层内涵AIPoweredComputing,AI驱动的计算,指包括PC、平板、手机、汽车、服务AIPersonalComputer,即AI个人电脑,是新一代智能终端产品器等各类端和边缘侧全方位地搭载AI相关的能力,是更广泛的一个概念内嵌AI功能,通过大模型压缩技术,可以创建个性化本地知识库,能运行个人模型,和用户实现自然交互作为工作助手,安排会议、写文档或者提炼总结要点基于电脑上的照片和视频,直接剪辑生成内容34资料:财联社,36Kr,联想TechWorld2023大会,砍柴网,国海证券研究所联想集团:发布AI

Phone和功能性产品AI

Twin,后者同时赋能个人与企业用户p

就个人用户而言,AITwin被定义为用户在数字世界的延伸,其本质上是基于本地知识库生成的属于个人的专有大模型,其能够在最大范围内了解用户的思维方式并给出解决方案。由于AITwin只会被存储在本地化的设备或家庭服务器上,个人数据不会被共享或上传至公有云平台,因此用户的个人隐私和数据安全能够得到有效保护;企业级AITwin涵盖一系列企业级人工智能应用,其能够打通企业内部各类智能设备、边缘和私有云,联动各种企业级软件,综合和分析各类信息并给出最优建议。例如,企业级AITwin可以综合考虑企业的差旅政策、审批流程与员工的个人信息和偏好,为用户指定一个合理的计划。AITwin类型个人企业级定位个人助理企业级智能应用的组合PC、私有服务器等运行终端PC、手机、汽车等智能终端AIPhone手语翻译解决方案35资料:36Kr,联想TechWorld2023大会,极客网,国海证券研究所vivo:蓝科技+6nm自研影像芯片V3+联发科天玑9300助力打造AI手机X100系列p

2023年11月13日,vivo发布新品X100系列,该系列作为vivo旗下全新的AI手机,落地终端侧70亿参数大语言模型,跑通端侧130亿参数模型。•

蓝晶芯片技术栈:结合vivo自研影像芯片的能力,以软硬一体化设计为用户带来更•

CPU:全大核架构,4×Cortex-X4超大核+4×Cortex-A720大核强大的性能体验•

GPU:Immortalis-G720,性能大幅提升46%,功耗降低40%•

蓝海续航系统:打造更大容量、更快闪充、更轻薄体积的电池技术,同时开创了开源、降耗、提效的全新模式,满足用户对手机续航的新需求•

蓝心大模型:由5款vivo自研大模型组成的矩阵,分别覆盖十亿、百亿、千亿三个参数量级•

AI处理器:APU790,基于联发科开发的混合精度INT4量化技术和内存硬件压缩技术NeuroPilotCompression,天玑9300可支持端侧运行10亿、70亿、130亿AI大语言模型,并且率先实现在移动芯片上运行330亿

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论