




版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
2024年AI手机行业深度报告:AI手机_AI产业革命的决定性力量1.AI手机颠覆性体验推动渗透率高增1.1.智能手机市场转暖叠加AI手机渗透率提升,需求可期全球智能手机出货量触底反弹,验证边际复苏预期。据IDC数据,2023年全球智能手机全年出货量同比下降3.2%至11.7亿部,为近十年来最低。随宏观经济边际转好、年初库存逐渐消耗,以及AI应用场景日渐丰富,2023下半年智能手机需求转暖,第四季度全球出货量同比增长8.5%至3.3亿部,好于预期的7.3%增长。触底反弹趋势亦可在中国市场得到验证,2023年第四季度,中国智能手机出货量约7,363万台,同比增长1.2%,在连续同比下降10个季度后首次转正,其中高端机型恢复势头好于中低端机型。据IDC预测,2024年中国市场出货量将达2.87亿台,同比增长3.6%,为2021年以来首次实现增长。复苏大背景下,AI手机加速渗透有望带动新一轮换机潮。2023下半年起,以谷歌、三星、OPPO等为代表的厂商将大模型内置于智能手机中,完成从云端AI向终端AI的转变,“AI手机”浪潮开启。据IDC预测,2024年全球新一代AI手机出货量将达1.7亿部,占智能手机总出货量的近15%,较2023年的约5,100万部出货量大幅增长约233%。随着新芯片的发展和应用场景的进一步扩展,AI手机渗透率将持续迅速攀升。据CounterpointResearch预测,2024年生成式人工智能(GenAI)智能手机的出货量将超1亿部,2027年出货量将达到5.22亿部,三年复合年增长率约为73%。三星AI手机开山之作GalaxyS24系列预购、销售数据双双创新高,Ultra机型受偏好反映消费者对高端机型溢价的高接受度。自1月19日至1月25日,为期一周的GalaxyS24系列韩国国内预购数量录得121万台,打破了S23系列一周预售109万台的成绩,日均预购量为17.3万部,超越了GalaxyNote10(12.5万部),成为所有Galaxy智能手机中最高预售记录。121万台预购量中,S24Ultra约占60%,GalaxyS24+约占21%,GalaxyS24约占19%,体现消费者对高端机型溢价的高接受度。GalaxyS24系列在韩国本土市场上市28天后销量即超过100万台,成为最快达到韩国市场100万台销量的GalaxyS系列,比此前GalaxyS8系列纪录快了9天时间,其中GalaxyS24Ultra占总销量的55%。AI加持下,有望加速迎来新一波的换机潮,带来巨大潜在销量的同时,亦可提振手机ASP。1.2.AI手机在定义、功能、用户体验上均具颠覆性AI智能手机如何区别于上一代智能手机?上一代智能手机已搭载部分AI功能,如2019年APPLE在iPhone11上推出的AI照片处理技术DeepFusion,通过机器学习以低到中等的光线拍摄照片,连续拍摄九张照片并最终合成高细节、低噪点图片。购物平台与短视频平台的智能推荐亦依赖于AI算法。可以说,上一代智能机在硬件端、软件端均具备运行端侧AI的能力。那么,新一代AI智能手机新在何处?从定义看,新一代AI手机(Next-genAISmartphone)指NPU算力大于30TOPS、搭载能够支持更快速高效端侧GenAI模型的SoC、支持包括StableDiffusion和各种大语言模型在内的GenAI模型在端侧运行的智能手机。根据IDC分类,上一代搭载初步AI功能的智能手机可统称为“硬件赋能AI手机”,其NPUTOPS≤30。以2017年苹果发布的iPhoneX为例,其搭载的A11Bionic仿生芯片神经网络引擎每秒运算可达6000亿次,可胜任机器学习任务,人脸识别功能可随机主的样貌变化而调整适应。而新一代AI智能手机在端侧AI运行速度、效率、应用场景、芯片算力等均实现全面提升。从特征看,新一代AI手机应具备算力高效利用能力、真实世界感知能力、自学习能力、创作能力。根据OPPO与IDC,在算力高效利用能力方面,AI手机需要高效地利用计算资源,以满足生成式AI计算和端侧部署的需要;真实世界感知能力方面,AI手机需要利用视觉、听觉、触觉敏锐地感知真实世界,了解用户与环境的复杂信息;自学习能力方面,除模型本身的学习能力外,AI手机通过机器学习不断理解用户习惯,通过自学能力提高交互体验;创作能力方面,AI手机需具备创造性,生成式服务为用户提供持续的灵感与知识支持。从应用场景与功能看,新一代AI手机的已落地的使用场景可大致分为文字类、图像视频类、语音类及效率提升类。文字类方面,大模型接入后,无论部署于云端或是终端,AI手机均具备了文字分析处理及生成功能。图像视频类为当前AI手机重点发力的应用场景,利用AIGC可实现文生图、图像美化、图像扩展与消除、视频补帧等功能。语音类功能对AI算力要求较高,OPPO推出AI大模型通话摘要功能,可以提取和总结通话中的要点信息,三星内置通话实时双向翻译和文字翻译功能,无需第三方应用并支持13种语言。效率提升类目前已有笔记智能摘要、网页智能摘要等功能落地,三星即圈即搜功能进一步完善了交互逻辑,预计未来效率提升类应用将带来最颠覆性的体验升级,即成长为真正的用户智能助理,目前Pixel系列推出的个人助手AssistantwithBard以及魅族21pro系列推出的Aicy助手已初步具备智能助力雏形。从用户体验看,新一代AI手机有望真正成为自在交互、智能随心、专属陪伴、安全可信的个人化助理。相较于传统智能机,AI手机通过人格化、记忆、感知和管理能力,为用户带来全新的人机交互体验,打破系统、服务、设备与人之间的边界。一方面,AI手机基于准确的语义理解能力及庞大的知识数据图谱,叠加对用户个性化信息、习惯的学习,可提供准确且定制化的建议与回答;另一方面,AI手机的终极目标是摆脱臃肿、繁多的APP,垂直整合端侧应用,深层次联通各个独立的孤岛,用户一个指令可以调动多个APP自动解决需求,提供一站式服务,真正扮演智能助理的角色。1.3.AI手机本身本质上是AIAgentAI手机不仅限于具备生成式AI功能,更扮演着AIAgent的角色。在业内看来,AI手机并非仅指具备生成式AI功能的手机。独立的大型模型难以为手机上的其他应用提供支持,各个APP仍为独立的孤岛,但将这些模型融入手机系统中可以打破应用之间的隔阂,将系统的能力提升到AIAgent级别,不仅让大模型加持智能助手,还能让系统工具也具备AIGC能力。据荣耀CEO赵明刻画,AI手机是一个更加基础性、系统性的AI算力平台。AI手机成长为具备数字人格的AIAgent,需要具备自主决策能力。AI手机不仅有底层硬件的需求,也有OS层面AI化和交互体验的革新,它本身即是一个AIAgent。它们能够感知用户的需求、自主决策执行,甚至学会用户的习惯,为用户提供更为个性化的服务。根据小米、华为、vivo等公司联合清华大学智能产业研究院共同发布的个人LLM智能体综述论文,AIAgent可根据能力和交互逻辑分为L1-L5五个等级。当前智能手机的AI功能停留在L2阶段,仅能执行确定化的任务,我们认为未来的AI手机将真正成长为具备数字人格的Agent,超越理解任务的范畴,具备自主决策能力,主动而不是被动地提供个性化服务。2.手机有望成为最适配终端AI落地的设备2.1.从云端到终端,混合式AI是AI的未来2.1.1.云端推理受限于成本和算力瓶颈云端推理成本较高,阻碍生成式AI模型进一步规模化扩展。目前,云端是生成式AI模型部署的主要方式,用户可以通过网页对模型进行访问或通过API接口直接调用,向云端服务器发出请求,在云端收到请求后,会调用训练完成的模型对需求进行处理并返回结果。对比训练与推理的成本,尽管生成式AI模型参数数量较多,进行一次训练将产生较高昂的成本,但因其每年平均仅需训练几次,因此成本较为固定,不会随终端用户的增加而产生大幅变动。然而推理端成本则与终端用户数量正相关,由于生成式AI模型需求的拓展推动其市场规模高增,模型推理端的市场规模将远高于训练端,表现为模型的推理成本随着日活用户数量及其使用频率的增加而飞速增长。然而,在云端进行模型推理的成本极高,这将导致规模化扩展难以持续。云端推理受限于算力,需求高峰期会出现长时延甚至宕机。2023年11月,ChatGPT和其API接口出现“严重停机”(MajorOutage)事件,故障时间持续长达超过12小时。云端推理出现“宕机”现象,主要是算力不足、推理数据过大、算法能力不强等因素,根本原因与海量用户同一时间涌入ChatGPT平台输入输出内容有关。据不完全统计,在2023年3月份和8月份已发生过类似事故,宕机时间分别为12小时、3小时。2.1.2.从云到端、端云混合,具备成本、能耗、性能、隐私安全、个性化五大优势混合AI结合云端与终端,并根据不同应用场景灵活分流工作负载,助力解决规模化问题。据高通《混合AI是AI的未来》白皮书,混合AI指:终端和云端协同工作,在适当的场景和时间下分配AI计算的工作负载,在高效利用资源的同时为使用者提供更好的体验。在以云为中心的场景下,终端将根据自身能力,在可能的情况下从云端分担AI工作负载。而在其他的场景下,计算将主要以终端为中心,在必要时向云端分流任务。类比传统计算从大型主机和瘦客户端演变为当前云端和PC、智能手机等边缘终端相结合的模式,生成式AI也将结合云端和终端,逐渐重塑行业格局。算力方面,AI算力将由现在的云端集中部署逐渐转变为云端与边缘端灵活分配;模型方面,大模型将逐渐向边缘端渗透,在智能终端运行。从云到端,混合AI架构在成本、能耗、性能、隐私安全和个性化五大维度具备优势。AI手机以本地推理为主,边缘和云端推理为辅,能够在混合算力、混合模型之间智能、合理地调配任务,有效缩减响应时间,且能在离线状态下发挥作用,同时可避免数据泄露风险。值得一提的是,手机作为终端设备在个性化维度潜力巨大,混合AI让更加个性化的体验成为可能。未来渗透率天花板下,将部分推理分流至端侧进行,仅一家大模型厂商即可节约60亿人民币的运算成本。根据DeepTrading(一家算法交易公司)创始人YamPeleg的测算,8K版本ChatGPT云端推理成本为0.0049美分/千token(128个A100GPU)。我们以全球1.8亿日活跃用户、每人每天100千token推理需求测算,ChatGPT4在云端进行推理的成本约为88.2万美元/天。根据Vivo副总裁周围测算,Vivo大模型单次对话成本约为0.012~0.015元/次,当前Vivo全国用户数约为3亿。我们以2.5亿日活用户(假设的未来渗透率天花板)、每人每天10次对话需求测算,Vivo大模型在云端进行推理的成本约为3,000万~3,750万人民币/天。若简单以50%分流率计算,将50%推理分流至端侧进行,将节约55~68亿人民币/年的云端运算成本。2.2.从AIPC到AI手机,AI手机有望打通AI终端应用落地最后一环相较PC,手机普及性、伴随性属性更强,更适合AI大规模落地。根据研究机构StrategyAnalytics数据,2023年到2027年全球智能手机用户基数将增长11%,全球智能手机渗透率将持续保持上升趋势。根据AI手机白皮书,2023年全球约43亿人拥有智能手机,渗透率达54%,而新华网数据显示2023年我国智能手机渗透率达85%。高普及性背景下,OPPO用户手机日均使用时长已达到6小时/天,渗透于用户日常生活的方方面面,已从单纯的通讯工具演变为钱包、播放器、生产工具、钥匙等,紧密的交互性为AI应用大规模落地创造基础。对比AIPC和AI手机的定位及应用场景,AI手机有望凭颠覆性用户体验成为AI核心入口。AIPC作为生产工具,其使用场景往往局限于办公场景,注重效率;而AI手机终极使命是成为用户的私人助理,赋能生活全场景,从琐碎和繁杂中解放用户。从使用场景看,AI手机因其伴随属性强,数据采集设备能够收集到丰富、广泛的多模态用户数据,从而给出个性化解决方案。以出行为例,AI手机可调用用户日程安排中的目的地信息,给出穿衣建议;可调用机票或车票信息,给出出行时间及路线规划建议;可结合用户历史订单,给出目的地就餐建议。手机凭借其天然便携性,可下沉至用户日常生活的各类场景,有望超越AIPC,成为终端AI的核心入口。3.突破内存及算力桎梏,技术可行性得到验证3.1.多路线发力克服手机内存瓶颈,终端部署大模型可行性得到验证大模型参数量对手机内存提出挑战。大型语言模型的泛化能力及通用性取决于其参数量,如GPT-4拥有16个专家模型,共包含1.8万亿个参数。大多数大模型都在具有强大服务器硬件支持的云端运营,若直接部署于终端设备,则需要设备拥有足够大的内存。目前参数量较小的主流AI大模型多为70亿参数或130亿参数,分别需要约14GB和20GB的内存,例如小型LLaMA有70亿参数,其FP16版本大小为14GB,远超当前手机的内存承载能力。多路线发力攻克内存瓶颈,助力端侧大模型落地。为顺利将大模型部署于手机上,当前存在三种技术路线:一是直接拔高终端内存,二是压缩大模型从而降低大模型体积,三是优化内存调用逻辑。目前以微软、联想、OPPO为代表的势力致力于大模型压缩路线,苹果拟通过优化闪存交互和内存管理逻辑来解决内存壁垒,3DDram技术有望通过直接拔高终端内存以突破瓶颈。3.1.1.大模型压缩:轻量化大模型有望“塞”进手机大模型压缩:百花齐放,卓有成效。模型压缩旨在将庞大的深度学习模型精简为更为轻量级的形式,在保持模型原有性能的基础上减少推理过程中的内存和计算成本,以便模型可以在各种资源受限的设备上运行。大模型的压缩和加速算法主要包括量化、剪枝及蒸馏,可在大幅简化模型的同时将精度损失控制在合理范围内,此外紧凑架构设计、动态网络、张量分解(包括低秩分解)等技术路线也被证明有效。大模型压缩:量化有助于提升性能、能效、内存带宽和存储空间。基于量化感知训练及深入的量化研究,生成式AI模型可以量化至INT4模型,在降低位数精度的同时限制准确度的损失。事实上,INT4已逐渐成为大语言模型的趋势和范式,尤其是当大模型需要部署、运行于终端时。相比INT8,INT4可实现高达90%的性能提升和60%的能效提升,可运行更高效的神经网络,同时不影响准确性和性能表现。通过Int4量化技术支持,AquilaChat2-34B仅需接近7B级别模型的GPU资源消耗,即可提供超过Llama2-70B模型的性能。经Int4量化之后,AquilaChat2-7B、34B模型的内存占用大幅降低了58%、70%,而模型综合性能指标仅降低了1.1%和0.7%。大模型压缩:微软SliceGPT技术已将模型体量压缩25%。SliceGPT可归于剪枝方案,核心技术在于利用Transformer架构中的计算不变性来简化和压缩模型,通过对每个权重矩阵应用正交矩阵变换实现对模型的极限压缩。为实现计算不变性,引入新变换矩阵Q,对变换后的权重矩阵进行细分化切片,将稀疏性集中在权重矩阵的底部行,并删除相应的列。在预测结果不变的前提下,权重矩阵的尺寸变小,从而减小了模型的参数量和计算需求。实验数据显示,SliceGPT可以为LLAMA-270B、OPT66B和Phi-2模型去除多达25%的模型参数(包括嵌入),同时分别保持密集模型99%、99%和90%的零样本任务性能。保证模型性能的前提下,SliceGPT具备推理运算量显著降低、推理速度提高、计算成本降低、吞吐量提高、无需额外代码优化等优势。大模型压缩:万亿级大模型目前已可压缩20倍,证实可行性。1.6万亿参数的SwitchTransformer-c2048模型需要3.2TB的GPU显存才能有效运行。全新的压缩和执行框架QMoE通过采用专门设计的GPU解码内核,具备了高效的端到端压缩推理,不仅可以实现高达20倍的压缩率,而且只会产生轻微的精度损失。QMoE仅需单个GPU服务器,就可在一天内将1.6万亿参数的SwitchTransformer-c2048模型压缩至不到160GB,相当于每参数只有0.8位。该结果不仅证明了先进量化方法的有效性,而且还表明极低位宽的压缩确实适用于大规模的MoE。3.1.2.优化内存管理:苹果闪存方案效果显著优化内存管理:苹果利用闪存,解决终端大模型部署的内存瓶颈。计算机的记忆体简单分为内存(Ram)和闪存(Flash),内存用于临时存储需要随时访问的数据和指令,它提供高速的读写,有较高的存储密度;闪存正相反,它读写较慢,适用于长期数据的存储。因此从特性上看,内存更适合需要频繁读写的大模型,目前的标准方法是将整个模型加载到DRAM中进行推理。但如前文所分析,70亿参数的模型仅加载参数就需要超过14GB的内存,仅以半精度浮点格式加载,超出了大多数边缘设备的能力。苹果提出将模型参数存储在至少比DRAM大一个数量级的闪存上,然后在推理过程中直接且巧妙地从闪存中加载所需的参数,避免了需要将整个模型适应DRAM的需求。优化内存管理:苹果利用两种互补技术来最小化数据传输并最大化闪存吞吐量。由于LLMs在前馈网络(FFN)层具有很高的稀疏性,苹果利用该特性有选择性地从闪存中加载只有非零输入或预测为非零输出的参数。具体而言,苹果构建了一个以闪存为基础的推理成本模型,并使用窗口化(Windowing)以及行列捆绑(Row-ColumnBundling)两项关键技术,来最小化数据传输并最大化闪存吞吐量。窗口化仅为前几个tokens加载参数,并重用最近计算的tokens的激活,这种滑动窗口方法减少了加载权重的IO请求数量。行列捆绑方法存储上投影和下投影层的串联行和列,以读取闪存的更大连续块,这将通过读取更大的块来增加吞吐量。窗口化和行列捆绑共同促使数据负载大幅减少,提高了内存使用效率。优化内存管理:效果显著,手机端部署大模型可行性进一步得到验证。苹果的闪存方法预测FFN的稀疏性并避免加载零化的参数,优化成本模型和按需选择性加载参数,实现了可以运行比设备DRAM容量大两倍的模型,并在CPU和GPU上分别比传统方法提速4-5倍和20-25倍。3.1.3.拔高内存:3DDram技术是落地移动设备的理想方案3DDram技术小体积、大容量的特质,是落地移动设备的理想方案。除了对大模型体积进行优化外,内存容量本身的扩容也是必然趋势。根据美光CEO,AI手机的内存容量预计将比当今的非AI旗舰手机高出50%到100%。3DDRAM技术的小巧体积和大容量,有望成为移动设备的理想内存解决方案。3DDRAM(垂直存储器)核心原理是利用垂直堆叠的方式,将存储单元置于一个二维阵列中,通过垂直叠加显著提高容量,同时降低平面面积的占用,使得单位面积内的存储容量显著增加,从而实现容量的最大化。除容量大,3DDRAM亦具备数据访问速度快的优势。传统的DRAM在读取和写入数据时需要经过复杂的操作流程,而3DDRAM可以直接通过垂直堆叠的存储单元读取和写入数据,极大地提高了访问速度。3DDram加速商业化,手机内存容量有望实现跨越式突破。2024年1月,三星电子在美国硅谷开设了新的R&D研究实验室,专注于下一代3DDRAM芯片的开发。2023年9月三星推出了业界首款且容量最高的32Gb(Gbit,非GB/GByte)DDR5DRAM芯片,采用12nm级工艺打造,可生产出1TB的内存产品。2023年10月三星宣布计划在下一代10nm或更低的DRAM中引入新的3D结构,而不是现有的2D平面结构,将一颗芯片的容量增加100G以上。根据NeoSemiconductor的估计,3DX-DRAM技术可以跨230层实现128Gb的密度,是当前DRAM密度的八倍。NEO提出每十年容量增加8倍的目标,目标是在2030年至2035年间实现1Tb容量,比目前DRAM核心容量增加64倍。3.2.异构方案下,头部芯片厂商有望突破推理算力制约3.2.1.NPU提供高性能算力支撑大模型从云端向终端延伸需要端侧AI推理算力支撑,CPU+GPU+NPU的集成化将成为处理器未来发展方向。NPU(神经网络处理单元)更适配AI的推理算力需求,相较于传统的CPU和GPU,NPU拥有更高的能效比和专用性,能够更高效地处理神经网络计算。“CPU+GPU+NPU”的异构方案嵌入NPU后,由CPU运行较小的工作负载并实现低延迟,NPU专门针对神经网络工作负责进行优化,GPU则用于需要并行吞吐量的大型工作负载。3U结合的异构方案能够实现更快速、更高效率的边缘AI模型推理,同时最大限度地提高设备热效率和电池寿命。头部厂商SoC性能大幅提高,NPU算力跨过30TOPS门槛。根据IDC定义,新一代AI手机指NPU算力大于30TOPS、搭载能够支持更快速高效端侧GenAI模型的SoC、支持包括StableDiffusion和各种大语言模型在内的GenAI模型在端侧运行的智能手机。在此定义下,头部SoC产品如高通骁龙8Gen3、联发科天玑9300及苹果A17Pro符合此算力要求。3.2.2.骁龙8系列、天玑系列、苹果A系列持续迭代第三代骁龙8移动平台于2023年10月推出,是一款集终端侧智能、顶级性能和能效于一体的强大产品。与前代平台相比,骁龙8Gen3用HexagonNPU代替了原有的HexagonDSP,在架构、计算单元上都进行了重新设计,内部运行频率更高,内部缓存空间更大,实现了显著的运行速度的提升。骁龙8Gen3的AI引擎总算力达到了73TOPS每秒,相比前代产品提升98%,同时能效提升40%。CPU沿用台积电4nm工艺,三丛集布局架构从原来的1+4+3升级为1+5+2,性能提升30%,能效提升20%;GPU性能和能效均提升25%,光线追踪性能提升了40%,3DMark光追大幅领先于苹果A17Pro。第三代骁龙8能够支持复杂的大语言模型、大视觉模型以及生成式AI应用。例如支持终端侧运行高达100亿参数的生成式AI模型,以每秒生成20个token的速度运行70亿参数的大语言模型,并支持FastStableDiffusion在0.6秒内生成图像。在第三代骁龙8移动平台赋能下,一系列旗舰AI智能手机展示出出色的生成式AI特性,比如AI赋能的照片扩展和照片魔法擦除(Xiaomi14Pro)、智慧成片和智慧创建日程(荣耀Magic6Pro)、图片AI消除(OPPOFindX7Ultra)。此外,高通在MWC带来了第三代骁龙8的最新生成式AI技术演示,包括全球首个在Android手机上运行的多模态语言模型,以及高通首个在Android手机上运行的LoRA模型。骁龙8Gen4将于10月发布,3nm制程+自研内核,性能大幅提升。高通在MWC2024活动中宣布骁龙8Gen4将于10月发布,骁龙8Gen4基于台积电的3nm工艺制程,放弃了Arm公版架构设计,转而采用高通自研的Oryon内核,大幅提升处理器的性能表现。具体规格方面,骁龙8Gen4将采用全新的双集群八核心CPU架构方案,包括2个NuviaPhoenix性能核心和6个NuviaPhoenixM核心。此外,它还将集成Adreno830GPU,其理论性能表现甚至优于苹果的M2芯片。据IT之家,骁龙8Gen4将成为业内首款支持LPDDR6内存的旗舰芯片,而苹果将于2024年推出的A18Pro芯片会采用LPDDR5T规格。联发科天玑9300开创性采用全大核CPU架构,从底层大幅提升芯片算力。为了提供生成式AI时代的算力需求,天玑9300使用全大核CPU架构,包含4个Cortex-X4超大核,最高频率可达3.25GHz,以及4个主频为2.0GHz的Cortex-A720大核,其峰值性能相较上一代提升40%,同性能情况下功耗节省33%。常规能力之外,联发科着重升级了天玑9300的AI性能,能够实现更快速且安全的边缘AI计算。天玑9300集成了MediaTek第七代AI处理器APU790,整数运算和浮点运算的性能是前一代的两倍,功耗降低了45%。APU790内置了硬件级的生成式AI引擎,专门针对目前大语言模型常用的Transformer进行算子加速,大模型的处理速度是上一代的8倍。70亿参数大语言模型的端侧推理可以做到每秒20token。针对终端难以部署超大体积亿级参数大语言模型的问题,联发科开发了混合精度INT4量化技术,将130亿参数大模型压缩至13GB,再结合其特有的内存硬件压缩技术NeuroPilotCompression,进一步把13GB内存压缩至5GB,内存占用直降61%。在与vivo的合作中,天玑9300已经率先实现了7B和13B大模型在移动端的推理,终端产品即将面世。在更极限的情况下,联发科还跑通了高达330亿的大模型。StableDiffusion方面,端侧的AI图片生成可以做到一秒以内出图。天玑9400预计于Q4发布,可支持超大模型的端侧部署。据CNMO,联发科计划在2024年第四季度推出天玑9400,基于台积电3nm制程,继续采用Arm内核,在天玑9300架构基础上,大核从Cortex-X4升级到Cortex-X5,同时依旧支持LPDDR5T内存,以满足本地AI运算的需求。天玑9400或将支持在设备端运行更大的AI模型,预计将超过天玑9300的330亿参数大语言模型。苹果A17Pro是业界首款3nm芯片,可实现35TOPS。A17Pro采用6核CPU,全新CPU微架构和设计改进同时适用于性能核心和能效核心,性能核心提升最快可达10%,能效核心在业界一骑绝尘,带来竞品3倍的性能功耗比。全新的GPU采用采用6核设计,峰值性能提升最高可达20%。内部搭载16核AI神经引擎,神经网络引擎运行机器学习模型的速度提升最快可达2倍,算力可达35TOPS,可支持iOS17中的自动纠错、从照片背景中提取主体、为有失语风险的用户创建个人语音等功能。iPhone16系列将搭载A18、A18Pro,单、多核跑分提升约20.44%和13.40%。根据Geekbench上的跑分结果,A18Pro单核得分约为3500,多核得分约8200,与之相比,前代的A17Pro在Geekbench6测试中取得单核平均分2906分、多核平均分7231分的成绩,单、多核分别提升了约20.44%和13.40%。4.各品牌AI手机加速面世,关注全栈自研能力4.1.安卓手机厂商加速推出AI旗舰机型,静待需求兑现4.1.1.OPPOAI功能使用率超预期,“1+N”理念擘画AI手机终极形态OPPO高调宣布进入AI手机时代,AI功能使用率超预期。在2024年春节期间,OPPO为FindX6/X7等一系列机型推送了“AI新春版”,带来了AI消除、通话摘要、新小布助手、小布照相馆、小布AI贺卡等上百款AI功能。据OPPO首席产品官刘作虎,OPPO的AI消除功能人均每天使用次数已高达15次,爆款特质已现。刘作虎表示OPPO把AI作为手机下一个时代最重要的战略,没有设置投入上限。2月20日,OPPOAI中心于滨海湾数据中心正式揭牌成立,滨海湾数据中心能够支持千亿级AI模型训练、两毫秒的骨干网络链接超低时延,是OPPO安第斯智能云全球混合云基础设施建设的关键组成部分。OPPO“1+N”理念擘画了AI手机的终极形态。OPPO首次公布其1+N智能体生态战略,其中“1”代表OPPOAI超级智能体,扮演AI时代操作系统的角色,具备传统智能手机不支持的自学习感知能力、长期记忆能力和工具调用能力,能基于知识图谱、文档数据以及搜索引擎,精准理解用户意图,充分调用其他多种工具并给出准确结果。“N”代表基于OPPOAIPro智能体开发平台所赋能的全新智能体生态。通过该平台,普通用户无需掌握专业的编程技能,可通过零代码自然语言交互,快速生成专属用户个人的个性化AI智能体。简单来说,AI超级智能体是大脑,赋能、指挥、调用N个小智能体,N个小智能体是无数个个性化的智能应用,由用户开发,下沉于用户需求的各个场景,听由超级智能体调用。“1+N”既体现了“分而治之”的理念,依托于各个细分场景,做到精细化、专业化、个性化,又具备“统揽全局”的特质,超级智能体连接各个孤岛,以总管家的角色直接对接用户需求。4.1.2.各大安卓厂商纷纷推出AI手机,功能各异谷歌率先推出Pixel8系列机型,首次实现AI在手机端落地。2023年10月4日,谷歌发布新一代智能手机Pixel8系列,搭载自研TensorG3芯片,侧重AI方面的能力提升,TensorG3在设备上运行的机器学习模型数量是Pixel6(Tensor初代芯片)的2倍。在芯片性能加持下,Pixel8Pro内置谷歌GeminiNano,率先实现了大模型在手机端的落地,支持实时语音转换成文字、来电筛选、自动回复消息、完美拍摄、图像魔法编辑器、音频魔术橡皮擦等功能。此外,谷歌还推出了AssistantwithBard,定位为用户的个人助理,可帮助朗读和翻译网页并生成摘要,未来将与Gmail、文档集成,通过与Assistant的交互,执行照片创建标题、创建购物清单以及在电子邮件收件箱中查找信息等一系列操作。三星GalaxyS24系列通话即时翻译、即圈即搜功能亮眼。三星GalaxyS24系列搭载了高通骁龙8Gen3forGalaxy芯片,并搭载系统级集成的AI大模型GalaxyAI,可在通话、笔记、系统相册等界面中调出。针对通讯,即时翻译功能LiveTranslate无需调用第三方程序,只需使用本地部署的应用即可进行通话双向实时语音和文字翻译。聊天助手ChatAssist可以帮助调整对话语气,确保语句符合原意。SamsungKeyboard内建的AI还可即时翻译13种语言的讯息和电子邮件等。针对效率提升,GalaxyS24是首款配备与Google合作的CircletoSearch功能的手机,用户只需仅通过圈选、高亮、涂鸦或点击的方式,即可搜索屏幕上的任何图像、视频或文本,无需离开当前页面即可快速获取所需信息。针对图像处理,GalaxyAI带来相片助手PhotoAssist功能,可进行擦除、重新构图或修复等简单编辑,并加入生成式编辑功能,可填充背景画面、调整主体位置、自动补充慢动作画面帧。魅族宣布ALLinAI战略谋求破局,开放大模型权限,专注硬件。魅族2月宣布AllinAI战略,同时将停止传统智能手机新项目的开发。AllinAI战略包括打造AIDevice产品、重构Flyme系统和建设AI生态。其中,打造AIDevice包括产品形态AI原生设计、硬件算力AI全局调用等;从底层重构Flyme系统及应用,让AI技术更深入地融入操作系统中;魅族还将重点建设AI生态,向包括OpenAI在内的众多国际顶级大模型团队全面开放魅族AIDevice硬件,允许LLM向用户请求数据,并开放SOC边缘AIAPI等技术接口,向所有大模型提供系统权限、FlymeAPI文档等支持。其中,针对月活用户最好的大模型应用团队,还特别设置100万人民币悬赏机制。此外,魅族首款AIDevice硬件产品也将在2024年内正式发布,并在未来三年累计推出6款硬件产品。发力点各有侧重,Vivo、小米分别攻坚大模型、影像能力。Vivo推出行业首个在手机端运行的开源自研大模型——蓝心大模型,覆盖机型已达到25款,其中蓝心大模型拥有1B、7B、70B、130B、175B等5款参数量。小米14Ultra发布了全球首个AI大模型计算摄影平台AISP。AI加持的小米14Ultra,可以实现150张全算法图片连续抓拍,而在同等时间里,iPhone能拍到65张全算法照片,其他安卓手机大约能拍到20-30张全算法照片。此外,在30倍或更高的光学变焦场景下,小米直接利用AIGC技术重绘了图像,突破了过往手机硬件能力的限制。通过AI优化运算、存储和调用的逻辑,小米14Ultra的超级数字底片可以提取大量原始光学数据,比专业摄影师常用的后期格式RAW更丰富,是迄今为止移动领域数据量最庞大的RAW格式照片。4.2.苹果具备全栈式能力,持续投入带来持续产出苹果叫停电动汽车项目加码AI,并非刚刚入局,而是厚积薄发。据彭博社,苹果的电动汽车“泰坦计划”项目(启动于2014年、已投入数十亿美金)即将被叫停,团队将部分转岗至生成式人工智能项目。尽管当前AI浪潮下,苹果并未推出相关产品,亦从未透露AI项目进展,但其已默默耕耘多年,本次放弃造车、加码AI侧面印证苹果在AI方面的野心。事实上,自2010年收购Siri起,十余年里苹果已收购超30家AI初创公司(不完全统计)。如基于Vilynx开发的一种可分析视频的图像、音频和文本的AI工具,并为视频创建相关标签,从而对视频进行搜索引擎优化,苹果收购Vilynx以改进Siri及其他基于AI的应用。此外收购Inductiv以改善Siri的数据,收购Voysis以提高Siri对自然语言的理解,收购PullString则是为了让iOS开发人员更容易在应用中使用Siri功能。2023年苹果收购了专注于AI视频压缩的WaveOne,通过“内容感知”的视频压缩和解压算法减小视频文件的大小,比如可以优先考虑保留人脸,而省略场景中的其他元素以节省带宽。据S的数据,2023年苹果收购了多达32家AI初创公司,高于谷歌的21家,Meta的18家,微软的17家。持续投入带来持续产出,大模型、多模态、空间计算等多领域均有进展。(1)大语言模型方面,苹果自研的AjaxGPT训练参数量超过2000亿(截至2023年9月),部分功能上可能强于GPT-3.5,苹果计划将其大语言模型融入Siri并在手机端运行。据TheInformation报道,苹果训练模型的预算已增加至数百万美元/天,高于GPT-4的训练预算。(2)多模态方面,2023年末苹果发布了Ferret多模态大语言模型,模型支持文字、声音、影像的多模态输入,并通过其独特的混合区域表示技术,有效地识别和描述图像中的复杂空间关系。和GPT4相比,Ferret的领先之处在于不仅能准确识别并处理图像内容,还能用算法区分图片中各种元素(人、物体等等),并根据用户指令找出对应元素。这种多模态理解能力,使得Ferret能够同时处理用户输入的图像和自然语言,并且由于其算法能够将图像中的元素准确拆分、定位,Ferret可以准确理解如“图片右上角”、“靠近沙发”这类指令。2024年3月,苹果发布论文公布最新多模态大模型成果,MM1多模态大模型参数最高可达300亿(其他版本包括30亿、70亿),由密集模型和混合专家(MoE)变体组成,不仅在预训练指标中实现SOTA,在一系列已有多模态基准上监督微调后也能保持有竞争力的性能。(3)空间计算方面,如前文所述,苹果通过将模型参数存储在闪存中,实现了在设备端运行比DRAM容量大两倍的模型,并在CPU和GPU上分别比传统方法提速4-5倍和20-25倍。收购DarwinAI步履不停,iOS的生成式AI功能即将落地。据彭博社,苹果于3月最新收购了DarwinAI,其核心技术是使AI系统更加轻便高效,以便于端侧部署。据彭博社,苹果将在2024年6月的全球开发者大会(WWDC)中推出带有生成式AI功能的iOS18,AI功能将集成于Siri、快捷方式、消息、AppleMusic等中。据《9To5Mac》,iOS17.4首个测试版中,苹果已经开始测试其AI功能,Siri将获得大语言模型支持,iOS17.4代码表明苹果正在测试四种不同的人工智能模型。全栈式能力突出叠加用户需求庞大,苹果的AI势能不可小觑。相较于单纯的终端手机厂商、大模型研发厂商、芯片设计制造厂商,苹果在算力、模型、终端应用层面具备全栈式解决方案:算力端,苹果自研A17Pro芯片可实现35TOPS,可基于自研芯片推出推理加速方案,并适配自研基座大模型;模型端,除现有的AjaxGPT和Ferret外,苹果拥有得天独厚的数据优势,用户基数庞大的iOS系统提供了大量的语料与用户行为以供大模型训练,2011年推出的Siri目前每月处理的请求量达250亿次,亦积累了海量用户对话数据;应用端,全球拥有超过20亿运行iOS操作系统的设备,截至2023年2月,苹果的活跃设备装机量已经突破20亿大关,iOS系统为面向C端用户的文字、图片、音视频等内容生成服务提供了平台和受众,苹果凭借iOS系统占据了AI服务及流量入口的必经之路。苹果作为有能力参与产业链全过程的科技企业,其降本增效空间显著优于产业链单环节企业,庞大的用户基础亦可加速其产品渗透。5.从硬件端、大模型端、手机厂商端看潜在机遇5.1.硬件端:高性能NPU享议价权,散热材料、内存芯片价值量提升在即5.1.1.NPU:异构计算成最优解,NPU溢价有望提振高通毛利率AI算力需要加大NPU尺寸,带动SoC设计迭代。NPU是基于DSA领域专用架构技术的处理器,相比CPU、GPU等通用处理器,NPU从硬件架构上更适合于神经网络运算,可专门用于给AI做硬件加速。然而当前较为领先的SoC设计架构中,NPU电路仅占约6%至7%的硅片空间,而CPU和GPU分别占SoC芯片空间的15%至18%。未来智能手机的AI计算需求势必要求更高的NPU性能和占用空间。目前设备端AI加速器的基准具有大约35TOPS(每秒数万亿次操作)的算力,仅能够运行典型AI模型的子集。在设备端,AI学习需要至少50TOPS才能确保良好的移动AI用户体验。AI推理性能的提高,将迫使SoC设计方案迭代以增加NPU核心的尺寸。AI手机多样化要求和计算需求下,异构计算方案成为最优解。尽管当前的智能机SoC已开始使用NPU赋能影像和音频功能,但AI手机的用例需求具有复杂性、并发性和多样性,为当前的智能机SoC提出了两大关键挑战:首先,在功耗和散热受限的终端设备上使用通用的CPU、GPU,难以满足AI用例的严苛且多样化的计算需求;其次,AI用例在不断演进、更新,在功能完全固定的硬件上部署这些AI用例不切实际。异构计算架构因其能够发挥各处理器的优势,具备处理多样性的能力,合理、按需调用SoC中各处理器的能力,从而实现最佳应用性能、能效和电池续航。AI用例变化推动NPU功能不断迭代。2015年的NPU主要面向音频和语音AI用例设计,基于简单CNN且主要需要标量和向量数学运算。自2016年起,拍照和视频AI用例大受欢迎,出现了基于Transformer、RNN、LSTM和更高维度的CNN等复杂模型,需要大量张量数据运算,因此NPU增加了张量加速器和卷积加速,在显著提升性能的同时降低了内存带宽占用和能耗。在2023年,大语言模型和大视觉模型赋能的生成式AI使得模型大小提升超过一个数量级,除计算需求外,还需重点考虑内存和系统设计,通过减少内存传输以提升性能和能效。高通NPU在系统级解决方案、定制设计和快速创新方面具备差异化优势。系统级解决方案方面,高通的系统级解决方案考量每个处理器的架构、SoC系统架构和软件基础设施,以打造最佳AI解决方案。定制设计方面,基于高通的自主AI研究和与广大AI社区的合作,高通NPU与AI模型的发展保持同步。高通具备支持全栈终端侧AI开发的独特能力,可赋能产品快速上市,并围绕终端侧生成式AI等关键应用优化NPU部署。快速创新方面,高通NPU经多代演进积累了大量技术成果,例如第三代骁龙8的诸多NPU架构升级可帮助加速生成式AI大模型,支持77GB/s带宽,以突破大模型token生成的瓶颈问题。高通异构计算架构在系统层面具备优势,可定制化设计。异构计算涵盖整个SoC,包括多样化处理器、系统架构和软件三个层级,因此在异构计算解决方案中应用系统级方法极为重要。高通从全局视角出发,定制设计整个系统,可为每类处理器插入全新的AI指令或硬件加速器。相比之下,若芯片组厂商选择授权多个第三方处理器进行拼装,则一方面处理器无法紧密配合,另一方面不是针对相同约束条件和细分市场而设计。高通第三代骁龙8性能领先,有望持续受益于端侧AI需求。在MLCommonMLPerf、鲁大师、安兔兔的基准测试中,高通第三代骁龙8均展现了远高于竞品的性能。第三代骁龙8亦展示了面向大语言模型和大视觉模型通用架构的真实应用性能:个人助手演示能够以高达每秒20个tokens的速度运行Llama2-7B;在不损失太多精度的情况下,FastStableDiffusion能够在0.6秒内生成一张512x512分辨率的图像。高通有着智能手机领域领先的Llama和StableDiffusion模型指标。受益于端侧AI对推理性能的高要求,高通有望凭借出色性能,持续提升价值量及市场份额,实现量利齐升。复盘4G芯片至5G芯片升级,划时代产品溢价明显。复盘4G芯片至5G芯片的升级,彼时小米的骁龙865的采购成本接近上一代骁龙855的两倍。三星采购成本亦有所印证,据TechInsights公布的三星GalaxyS20Ultra(12G+256G)物料成本数据,骁龙865SoC的成本为81美元,与骁龙855基本保持一致,但叠加X555G基带(26.5美元)和RF射频天线模组(33美元),三者打包总价实为140.5美元,此外仍有专利费和关税,实际骁龙865整体成本远超150美元,比2019年上半年(国内5G尚未商用)不包含X50基带的骁龙8554G移动平台贵1倍左右。由此可见划时代产品具有较强的溢价能力,我们认为骁龙8Gen3、Gen4有望凭借其卓越性能及完整生态,复刻4G升级至5G的轨迹,享受高溢价。高通、联发科占据供应链优势地位,有望凭高性能NPU/APU提振毛利率。我们认为高通、联发科作为SoC方案领导者,有望凭借供应链优势地位向下游转嫁生产成本上涨,提振盈利能力。复盘4G芯片至5G芯片的升级,小米作为高通芯片首发手机厂商,理应拥有较强议价权,但小米的骁龙865的采购成本仍接近骁龙855的两倍,反映供需失衡下高通强大的价格掌控能力。根据高通高级副总裁,骁龙8Gen4的定制化CPU并没有提升成本,但骁龙8Gen4出色性能使其售价高于骁龙8Gen3。我们复盘骁龙8系列SoC的售价,并根据高通毛利率反推其BOM成本,认为骁龙8Gen4的推出将进一步提升高通议价权,改善毛利率。5.1.2.散热:用量增加、新材料渗透率提升,带动散热材料价值量提升AI手机高性能凸显散热需求。AI手机高性能对散热能力提出较高要求,目前典型的散热系统主要分为导热界面传热、均热板传热(VC)和石墨膜散热(石墨烯导热膜/人工石墨散热膜)三个部分。当下人工石墨散热膜为主流方案,石墨烯导热膜为人工石墨散热膜的升级迭代产品,在价格和性能上均有提升,但尚未大规模商业化应用。以2022年富烯科技和思泉新材出货价为例,石墨烯、人工石墨散热膜价格分达252、74元/平方米,溢价率约3.4倍。成本劣势下,2020年底石墨烯市占率仅12%,人工石墨散热膜仍为绝对主流方案。GalaxyS24系列已加码散热材料,AI手机有望打开散热材料增量空间。复盘4G至5G手机的升级,散热部件的价值量约有3-4倍的提升。本次AI浪潮下,根据三星S24系列的拆机结果,三星加入了额外的石墨散热片,并增大了均热板面积,S24、S24+、S24Ultra的散热板面积分别提升了1.5、1.6、1.9倍。根据我们的测算,假设散热片面积50002,参考思泉新材散热片出货价、普通5G手机VC均热板价值量,AI手机带来的散热材料增量(相较5G手机)约为11元/部。若考虑高性能、高价格的石墨烯的渗透率提高带来的价值增量,据CGIAResearch预测,手机石墨烯散热膜的使用面积将由2020年的1002/部,增加到2025年的2002/部,参考富烯科技石墨烯出货价格并假设每年以10%速率降价,石墨烯渗透率提高、取代人工石墨膜,有望带来近3元/部的价值增量。5.1.3.内存:比拼带宽,供需关系驱动涨价当前桎梏不在内存容量而在带宽,LPDDR6带宽再升级。根据前文所述,在大模型体积压缩、优化内存调用逻辑、3DDram技术发展等三路线共同作用下,当前16/24GB内存已具备运行端侧大模型的条件,且未来内存容量仍有跨越式提升的空间,容量已不再是桎梏,提升带宽以适应复杂AI任务是更为迫切的需求。JEDEC固态技术协会已经正式完成了LPDDR6内存标准的定稿,预计将会在2024年第三季度正式发布,目前LPDDR5X内存的主流带宽为8533Mbps,而LPDDR6带宽可以达到12.8Gbps,比LPDDR5X高出了54%,LPDDR6X更是拥有17Gbps的带宽。供需关系驱动内存涨价,三星、海力士有望凭借率先出货LPDDR6受益。复盘LPDDR4的价格走势,2021年上半年的缺芯潮驱动LPDDR48GB/16GB分别由3.2元/6.5元上涨至3.8元/7元,随后供需周期轮转,下游库存较高叠加需求较弱,导致2022全年走出降价趋势。受益于AI手机对高带宽内存的需求,我们预计LPDDR5/LPDDR5X/LPDDR6将持续供不应求。三星和海力士申请LPDDR6RAM认证后,将会率先量产LPDDR6内存,GSMArena预计三星有望赶在骁龙8Gen4之前量产LPDDR6内存,届时骁龙8Gen4旗舰会率先搭载LPDDR6。5.2.大模型端:端侧AI加速大模型商业变现GeminiUltra订阅服务上线,为移动设备端GeminiNano变现验证可行性。谷歌大模型Gemini包含三个版本:搭载于移动设备端的GeminiNano,泛用模型GeminiPro,以及规格最高、适用于高度复杂任务的GeminiUltra。2024年2月,谷歌上线了基于GeminiUltra的订阅服务,用户通过订阅GoogleOneAI高级版(19.99美元/月)可使用GeminiUltra模型。随着端侧AI渗透率逐渐提高,移动设备端大模型GeminiNano亦有望凭订阅机制实现商业变现。三星手机AI大模型或将于2026年起采用收费模式。三星推出的GalaxyS24系列手机加入的AI大模型,其AI功能将免费提供至2025年底,未来三星可能将其部分或全部AI功能变更为有偿服务。据三星移动首席执行官TMRoh,三星将统筹考虑想要的客户和不想的客户,或将同时提供免费版和收费版。根据我们的测算,以三星为例,2026、2027、2028年AI手机搭载的(自研)大模型订阅费用或将带来73、134、221亿美元收入,2年CAGR达174%。5.3.手机厂商:用户基础和流量入口打造护城河,全栈自研方享高溢利5.3.1.AI手机带动量增、价增,具备软硬件自研能力的手机厂商方能享受利增量:AI手机有望驱动新一波换机潮。复盘4G至5G手机的升级过程,自2020年四季度起至2021年二季度,全球智能手机出货量实现同比高速增长,我们判断主要系苹果第一代5G手机iPhone12系列于2020年10月推出,驱动了这一波高景气度换机潮。我们认为AI手机在性能、颠覆性用户体验方面更胜5G相对4G的升级,有望复刻换机潮。我们参考5G换机潮下出货量的增速,结合IDC对于AI手机渗透率的预测,判断2025年AI手机出货量约3.8亿部,同比高增134%,2028年AI手机出货量达8.2亿部,五年CAGR达67%。价:AI手机有望复刻5G升级带来的价格升级。复盘5G商用化的进程,2020、2021年手机均价同比增幅分别为10%、11%,远高于2022、2023年的2%和4%,我们判断主要由5G高端机占比提高驱动。季度节奏来看,各年四季度的均价均有明显上涨,我们判断主要因iPhone12、13、14系列分别于各年四季度大量出货。AI手机在性能、用户体验方面的升级,超越了5G手机相对4G手机的升级,我们判断有望复刻上一轮的涨价潮。利:软硬件成本高企,具备自研大模型、自研芯片能力的手机厂
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 环保项目非道路机械排放监测措施
- 2025年度妇产科临床路径优化计划
- 2025秋部编人教版二年级语文上册写作指导计划
- 表面处理项目可行性研究报告模板
- 新pep小学三年级英语下册多元评价计划
- 幼儿园家长心理健康工作计划
- 建筑材料质量检测与保证措施
- 《平凡的世界》带给我的社会责任感心得体会
- 物业管理安全管理岗位职责
- 公共卫生科主任的领导职责与团队管理
- 建筑中级职称《建筑工程管理》历年考试真题题库(含答案)
- DL∕T 707-2014 HS系列环锤式破碎机
- (正式版)JB∕T 14455-2024 土方机械 非公路自卸车 电传动系统控制要求
- 费用组成-特殊施工增加费课件讲解
- 2024年湖南省长沙市雅礼实验中学中考二模考试英语试题
- 2023年八年级历史下册竞赛试卷
- 国民经济行业分类代码表
- 2024年云南省中考历史试卷(附答案)
- 2024-2029年中国无机涂料行业市场现状供需分析及重点企业投资评估规划分析研究报告
- 人工智能设计伦理智慧树知到期末考试答案章节答案2024年浙江大学
- 银行保安员管理考核办法
评论
0/150
提交评论