AI在嵌入式系统中的应用【课件文档】_第1页
AI在嵌入式系统中的应用【课件文档】_第2页
AI在嵌入式系统中的应用【课件文档】_第3页
AI在嵌入式系统中的应用【课件文档】_第4页
AI在嵌入式系统中的应用【课件文档】_第5页
已阅读5页,还剩32页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

20XX/XX/XXAI在嵌入式系统中的应用汇报人:XXXCONTENTS目录01

嵌入式AI的核心定义与技术演进02

嵌入式AI的技术架构与关键组成03

AI原生嵌入式系统的核心特征04

嵌入式AI的关键技术挑战与应对策略CONTENTS目录05

嵌入式AI的产业应用全景图06

嵌入式AI开发实践指南07

嵌入式AI的未来发展趋势嵌入式AI的核心定义与技术演进01嵌入式AI的核心定义嵌入式AI的本质内涵

嵌入式人工智能是指将人工智能算法与模型部署于资源受限的嵌入式系统中,实现本地化、实时化的智能决策与执行的技术形态。它融合了嵌入式系统的实时性、低功耗特性与AI的智能化能力,让传统硬件设备具备"边端智能"。与传统AI模式的关键差异

与依赖云端计算的传统AI模式不同,嵌入式人工智能强调"端侧智能",即在数据源头完成感知、分析与响应,无需持续连接远程服务器。其核心特征是全栈式AI集成与边缘侧自主决策,通过硬件加速、轻量级算法和实时操作系统的协同实现低功耗、高响应的本地智能处理。技术实现的核心目标

嵌入式AI的目标是在资源受限(如低算力、小内存、有限功耗)的嵌入式设备中,高效运行AI模型,实现设备从"自动化"向"智能化"的跨越,推动万物互联向万物智联发展,满足对响应速度、隐私保护、网络依赖性要求高的应用场景需求。嵌入式AI与传统AI模式的区别01数据处理位置与隐私保护嵌入式AI强调本地化运行,数据在设备端处理,敏感信息无需上传云端,有效保护用户隐私,如医疗设备的心电数据本地分析;传统AI依赖云端服务器处理数据,存在数据泄露风险。02网络依赖性与响应实时性嵌入式AI无需持续联网即可完成决策,避免网络延迟和断网风险,满足工业控制、自动驾驶等场景的毫秒级响应需求;传统AI受网络状况影响大,云端往返延迟难以满足实时性要求。03硬件资源需求与功耗特性嵌入式AI针对资源受限设备优化,采用轻量化模型和低功耗芯片(如MCU、NPU),功耗可低至μA级,适配电池供电设备;传统AI通常运行在高性能服务器,功耗高,对硬件配置要求严苛。04架构设计与功能实现方式嵌入式AI采用异构计算架构(如CPU+NPU)实现“感知-决策-执行”闭环,支持动态适应与在线学习;传统AI多为分层架构,功能相对固定,更新需依赖云端模型迭代。嵌入式AI的技术演进历程单击此处添加正文

硬件中心阶段(20世纪70-80年代)以专用微控制器为核心,如Apollo制导计算机、Motorola6800芯片,功能固定,控制方式简单,尚未形成操作系统支持的体系结构,主要实现特定的控制功能。RTOS与SoC发展阶段(20世纪90年代-21世纪初)实时操作系统(RTOS)出现,实现多任务调度等功能;System-on-Chip(SoC)设计理念兴起,集成CPU核等功能单元;ARM架构凭借低功耗优势崛起,嵌入式系统向分层设计演进。网络化与智能化初级阶段(21世纪初-2010年代)体系结构呈现分层结构,广泛应用轻量级协议(如MQTT)与远程交互机制,适应物联网需求;嵌入式系统成为边缘智能节点,参与协同计算体系,基于物联网与边缘计算的设计被提出。AI深度融合与异构计算阶段(近年来)采用异构多核架构(CPU+GPU+NPU),如NVIDIAJetson、GoogleEdgeTPU,具备强大AI推理能力;操作系统向微内核、分布式和虚拟化方向发展,强调实时性、安全性与可扩展性,系统结构注重模块解耦、资源隔离与AI能力深度融合。嵌入式AI的技术架构与关键组成02硬件平台:专用芯片与异构计算架构嵌入式AI的硬件基石:从通用到专用随着AI算力需求的增长,传统通用处理器(如MCU)已难以满足复杂模型的实时推理需求。专用人工智能芯片应运而生,为嵌入式AI的高效运行提供了硬件基础,实现了在资源受限环境下的智能化突破。核心AI加速单元:各司其职GPU加速单元适用于部分高性能嵌入式设备,用于并行处理图像与神经网络计算;NPU(神经网络处理单元)专为深度学习设计,具备高能效比,可高效执行卷积、矩阵乘法等核心操作;FPGA(现场可编程门阵列)支持硬件级重构,适用于算法快速迭代或定制化AI应用;ASIC(专用集成电路)为特定AI任务定制,实现极致性能与功耗优化。异构计算架构:平衡通用与专用现代嵌入式系统常采用“CPU+AI加速器”的异构架构,在通用控制与专用计算之间实现平衡。例如,异构计算芯片如CPU+GPU(如NVIDIAJetson系列)适合中高算力需求(如图像处理),CPU+NPU(如华为海思麒麟芯片)则专为AI设计,高效处理矩阵运算,共同构建嵌入式AI的强大算力支撑。模型优化与压缩技术量化感知训练使用TensorFlowModelOptimizationToolkit,在训练阶段模拟量化效果,将模型权重从浮点转为INT8等低比特整数,降低内存占用与计算复杂度,如YOLOv5s模型经INT8量化后推理速度提升,部署成本降低。知识蒸馏将大型模型(如BERT)的知识迁移到轻量级模型(如DistilBERT),在保留高精度的同时缩小模型体积,使复杂AI模型能在资源受限的嵌入式设备上稳定运行,典型如将教师模型的知识提炼到学生模型,实现模型轻量化。神经架构搜索采用MnasNet等自动化工具,针对特定硬件定制模型结构,优化模型性能以适配嵌入式系统的算力和存储限制,通过搜索算法找到在特定硬件平台上效率更高的网络架构。模型剪枝移除神经网络中冗余的连接或神经元,减少参数量,如通过剪枝技术可将ResNet-50模型体积缩至原尺寸1/8,在嵌入式设备有限资源下提升模型运行效率,降低计算负载。嵌入式操作系统与中间件支持

实时操作系统(RTOS)的核心作用嵌入式AI系统依赖RTOS如FreeRTOS、Zephyr实现任务优先级管理与实时调度,确保AI推理任务与设备控制任务(如电机控制、传感器数据采集)协同运行,满足工业控制、自动驾驶等场景的毫秒级响应需求。

轻量化AI框架与推理引擎TensorFlowLiteMicro、PyTorchMobile、ONNXRuntimeLite等轻量级框架专为嵌入式设备设计,支持模型加载、推理执行与结果输出,可在资源受限的MCU上高效运行量化后的神经网络模型,是嵌入式AI部署的核心软件组件。

中间件与硬件抽象层的适配中间件如Tengine、CMSIS-NN提供统一API接口,屏蔽底层硬件差异,实现AI算法在不同MCU/SoC平台的移植;硬件抽象层(HAL)则负责AI加速器(如NPU、FPGA)的驱动适配,使上层框架能高效调用专用硬件算力。

模型管理与热更新机制嵌入式AI系统需支持模型的本地存储、加载与热更新,通过OTA(空中下载)技术实现模型版本迭代,例如采用A/B分区更新方案,确保升级过程零宕机,满足设备在全生命周期内的算法优化需求。传感器融合与数据预处理多源传感器数据的协同感知嵌入式AI系统通常集成摄像头、麦克风、加速度计等多种传感器,通过传感器融合技术整合多源信息,提升感知可靠性。例如,在自动驾驶中,激光雷达与视觉摄像头数据融合可实现更精准的环境建模。数据预处理的关键技术在数据输入模型前进行本地预处理,如图像去噪、音频降噪、特征提取等,可减少无效计算,提升推理效率。例如,使用ArmCMSIS-DSP库对传感器数据执行归一化、滤波等操作。时序数据处理与特征工程针对工业设备振动、心电信号等时序数据,采用分帧、滑动窗口等技术进行处理,并提取时域(如峰值、峭度)和频域特征,为后续神经网络推理提供高质量输入,如电机故障检测中对振动频谱的分析。本地训练与持续学习机制边缘端增量学习技术嵌入式系统通过联邦学习等轻量级训练算法,利用本地新采集数据微调模型参数,实现系统行为自主优化,无需依赖预设规则。模型热更新与部署策略设计A/B分区更新方案和安全可靠的OTA(空中下载)机制,支持差分更新与断点续传,确保模型升级过程零宕机,适应环境变化。资源受限场景下的训练优化采用近阈值电压(NTC)、动态电压频率调整(DVFS)等技术,结合轻量化训练框架,在低功耗嵌入式设备上实现高效本地模型迭代。AI原生嵌入式系统的核心特征03全栈式AI集成与边缘侧自主决策

01全栈式AI集成:打破分层壁垒AI原生嵌入式系统从设计之初就将AI能力深度嵌入硬件架构与软件栈,打破硬件-软件-算法的分层壁垒,实现感知-决策-执行的闭环。

02异构计算架构:算力与能效的平衡采用异构计算架构(如Cortex-M+NPU),专用AI加速单元(NPU/TPU)与通用处理器协同工作,实现高能效比,例如华为海思麒麟芯片的CPU+NPU架构专为AI设计,高效处理矩阵运算。

03边缘侧自主决策:动态适应与实时响应通过在线学习(如联邦学习)和模型热更新,系统可自主优化行为模式,无需依赖预设规则。在断网或延迟敏感场景下,如自动驾驶汽车在隧道中实时避障,能独立完成环境感知与决策控制。

04能效革命:低功耗技术的创新应用采用近阈值电压(NTC)、动态电压频率调整(DVFS)等技术,实现超低功耗,如SiFiveUP201芯片可达16.8μW/MHz/DMIPS的能效水平,满足电池供电设备的长续航需求。与传统嵌入式系统的本质区别

架构融合:打破分层壁垒AI原生嵌入式系统打破硬件-软件-算法的分层壁垒,采用异构计算(如Cortex-M+NPU)实现“感知-决策-执行”闭环,而传统嵌入式系统多为硬件-软件分层结构,功能相对固定。

动态适应:自主优化行为模式AI原生嵌入式系统通过在线学习(如联邦学习)和模型热更新,可自主优化行为模式,而非依赖预设规则;传统嵌入式系统通常依据预设逻辑执行固定功能,缺乏自主学习和动态调整能力。AI原生嵌入式系统采用近阈值电压(NTC)、动态电压频率调整(DVFS)等技术,实现16.8μW/MHz/DMIPS的超低功耗(如SiFiveUP201芯片);传统嵌入式系统在能效比和针对AI计算的功耗优化上相对不足。嵌入式AI的关键技术挑战与应对策略04算力与功耗的平衡难题

嵌入式设备的核心矛盾嵌入式设备通常依赖电池供电或面临严格的功耗预算,而高强度的AI计算(如图像处理、神经网络推理)会显著增加能耗,导致发热和续航下降,如何在有限算力下实现高效AI功能是核心挑战。

硬件层面的能效优化采用低功耗芯片工艺(如近阈值电压NTC技术)、专用AI加速器(如NPU/TPU,能效比可达传统CPU的10倍以上)以及动态电压频率调整(DVFS)技术,实现算力与功耗的动态平衡。

算法与模型层面的轻量化通过模型量化(将FP32转为INT8,降低算力需求75%)、剪枝(删除冗余神经元)、知识蒸馏(小型学生模型学习大型教师模型知识)等技术,减小模型体积和计算复杂度,适配低功耗场景。

系统层面的任务调度与功耗管理采用间歇性唤醒、任务优先级调度(如在非推理阶段进入低功耗模式,如STM32的Stop模式功耗<1μA),以及动态推理(根据输入数据特性选择性激活模型层),最大化能效比。模型更新与远程管理

OTA升级机制的设计与实现嵌入式AI设备需建立安全可靠的OTA(空中下载)机制,支持差分更新、断点续传与回滚功能,确保升级过程稳定可控,应对大规模终端固件升级面临的网络不稳定、版本碎片化等问题。

模型热更新技术与应用通过模型热更新技术,嵌入式AI系统可在不中断设备主要功能的情况下,在线更新AI模型以适应新场景或修复缺陷,实现动态适应和自主优化行为模式,而非依赖预设规则。

远程管理平台的核心功能远程管理平台需具备设备状态监控、模型版本管理、部署策略制定、故障诊断与恢复等核心功能,例如利用MQTT、CoAP等低功耗物联网协议实现边缘设备与云端的数据交互和指令下发。

模型分发与版本控制策略采用合理的模型分发策略,如按设备类型、区域或应用场景分批推送更新,结合严格的版本控制(如CRC校验、数字签名),确保模型在传输和存储过程中的完整性与安全性,防止恶意篡改。安全性与隐私保护

01硬件安全机制采用TPM2.0芯片实现密钥管理,某智能电表方案通过EAL5+认证,确保硬件层面的可信根与数据安全。

02软件防护策略基于TEE(可信执行环境)的模型隔离,防止逆向工程攻击,在独立安全区域内运行AI核心算法与敏感数据处理。

03通信加密实现国密SM4算法在资源受限设备上的优化实现,加密吞吐量达120Mbps,保障嵌入式设备间数据传输的机密性与完整性。

04本地化处理与数据隐私嵌入式AI在本地完成数据处理与决策,如医疗可穿戴设备的心电异常检测,敏感数据无需上传云端,从源头保护用户隐私。开发工具链与生态支持不足

跨平台适配难度大不同嵌入式硬件平台(如ARMCortex-M、RISC-V、FPGA)架构差异显著,AI模型与工具链需针对特定硬件进行定制化适配,增加了开发复杂度和移植成本。

模型转换与优化工具链不完善从训练框架(如TensorFlow、PyTorch)到嵌入式推理引擎(如TensorFlowLiteMicro、Tengine)的模型转换过程中,常出现算子不兼容、精度损失难以控制等问题,缺乏端到端的自动化优化工具。

开发与调试工具链不成熟嵌入式AI开发缺乏像云端AI那样成熟的集成开发环境(IDE)和调试工具,对模型推理过程中的内存占用、算力消耗、实时性等关键指标的监测与分析工具支持不足,定位问题困难。

开源生态与社区支持有待加强相较于通用计算领域,嵌入式AI的开源项目、标准化接口和社区资源相对匮乏,开发者在遇到技术难题时可获取的参考资料和互助支持有限,尤其在特定垂直应用场景的解决方案分享不足。嵌入式AI的产业应用全景图05智能制造领域

AI质检系统:效率与精度的双重突破某汽车工厂部署的边缘AI质检系统,通过5G+MEC架构实现视觉检测节点部署YOLOv5s模型,检测速度达45fps,缺陷分类准确率99.2%,超过人工检测的95%。

工业预测性维护:降低停机时间的智能方案德国西门子在数控机床内部嵌入AI加速模组,将振动频谱分析从秒级压缩至8毫秒,预测性维护减少非计划停机45%,通过TensorFlowLite将ResNet-50模型体积缩至原尺寸1/8,INT8量化精度损失控制在0.5%内。

生产线优化与资源配置AI机器人可实时分析生产数据,识别瓶颈并提出改进建议,例如富士康生产线通过边缘计算优化装配流程,某工厂通过振动传感器结合AI算法预测机械故障并提前维护,将停机时间减少60%。

部署成本与投资回报边缘AI质检系统部署成本较云端方案降低67%,ROI周期缩短至8个月,分层式架构实现算力最优配比:设备端运行剪枝后的微型模型处理基础推理,边缘节点部署LSTM网络进行时序预测,云端承载复杂模型训练。智慧城市实践智能交通信号灯控制系统采用强化学习算法,在边缘端实现实时车流预测,LSTM模型预测精度达92%,动态配时优化响应时间<1秒,整体等待时间减少31%,燃油消耗降低18%。智能安防与异常行为监测部署于智能摄像头的嵌入式AI系统,通过轻量化YOLO模型实现本地实时目标检测与行为分析,如区域入侵、异常聚集等,响应时间毫秒级,有效提升城市公共安全管理效率。智慧能源与环境监测基于嵌入式AI的环境传感器节点,可实时监测空气质量、噪声、温湿度等,并通过本地数据分析实现异常预警;结合智能电网调度算法,优化能源分配,提升城市能源利用效率。医疗健康创新

可穿戴设备的心电异常检测可穿戴设备中的嵌入式AI通过1D-CNN模型在MCU上运行,实现心电异常检测,功耗仅3mW,保障了设备的长续航和实时监测能力。

智能跌倒检测与快速响应基于加速度计数据融合算法的跌倒检测技术,误报率低于0.5%,能及时识别跌倒事件并触发求助机制,为老年人等群体提供安全保障。

便携式医疗设备的本地AI辅助诊断便携式医疗设备(如血糖仪)集成AI辅助诊断功能,通过图像识别本地分析试纸结果,避免敏感医疗数据外传,同时提升诊断效率和便利性。

智能病房的边缘AI安全监控智能病房采用边缘AI技术,在本地实时识别患者跌倒风险等异常情况,响应迅速且保护患者隐私,为医疗监护提供智能化支持。智能家居与消费电子

智能语音交互与控制智能音箱通过嵌入式AI实现本地语音唤醒(如“小爱同学”)和命令词识别,无需联网即可响应,保护用户隐私并提升响应速度。小米智能音箱Lite利用先进AI和高质量麦克风最小化环境噪音,确保清晰声音交互。

智能家电与场景联动海尔智能空调和冰箱能够根据气候和储存物品自动调整温度和能耗模式,通过基于云的大模型学习用户习惯。TCL推出的TCLAiMe分体式AI陪伴机器人,能进行多模态自然交互,并智能控制家电和远程找人。

智能穿戴设备与健康监测现代智能手表的AI系统可静默监控生物数据流,检测心脏事件或疾病异常,甚至在症状出现前10天发出预警。AppleWatch等产品通过嵌入式AI实现ECG、血氧监测、离线训练指导及多模态交互。

智能电视与视觉增强长虹AI壁画+电视搭载沧海智能体,具备思维、记忆力和自我学习进化能力,实现人感交流、超级搜索、AI画质计算等功能。嵌入式AI技术提升画质处理、内容推荐及用户交互体验。自动驾驶与车载系统

环境感知与自主避障地平线J5芯片搭载的VLA模型可实时处理激光雷达数据,实现断网条件下的自主避障,保障行车安全。

智能驾驶辅助功能车道保持系统通过视觉识别算法调整方向盘角度,如特斯拉Autopilot采用类似技术,提升驾驶的稳定性与安全性。

智能座舱交互体验雷鸟AR眼镜结合低功耗AI芯片,可实现车内手势控制与语音翻译等功能,增强人机交互的便捷性与科技感。嵌入式AI开发实践指南06模型优化技巧

量化感知训练使用TensorFlowModelOptimizationToolkit,在训练阶段模拟量化效果,使模型在转换为低精度格式时仍保持较高精度,可将模型体积和计算量显著降低。

知识蒸馏将大型模型(如BERT)的知识迁移到轻量级模型(如DistilBERT),在大幅减小模型大小和降低计算需求的同时,保留原始模型的关键知识和性能。

神经架构搜索采用MnasNet等自动化工具,针对特定硬件平台的算力、内存和功耗限制,自动搜索并定制最优的神经网络结构,提升模型在嵌入式设备上的运行效率。

模型剪枝移除神经网络中冗余的连接或神经元,减少参数量和计算量,使模型更轻量化,例如通过非结构化剪枝去除不重要的权重连接,或结构化剪枝减少网络层或通道数。

权重量化将浮点数权重转换为低比特整数(如8位、4位),降低内存占用与计算复杂度,例如使用TensorRT对ONNX模型进行INT8量化可显著提升推理速度,同时保证精度损失可控。硬件选型矩阵

微控制器(MCU)算力通常在0.1-1TOPS,功耗低于1W,适用于简单传感器数据分类等对算力要求不高的AI任务,如基于STM32系列的智能传感器节点。

边缘处理器(AP)算力一般为2-10TOPS,功耗处于5-20W范围,典型应用场景包括工业网关等,可处理较复杂的边缘计算任务,例如运行轻量化视觉模型的边缘分析设备。

专用AI芯片算力可达10-100TOPS,功耗为10-50W,适用于自动驾驶等高性能需求场景,像NVIDIAJetson系列、华为昇腾Atlas等平台,能高效支持复杂神经网络运算。部署调试要点内存管理:静态分配与动态池化结合采用静态内存池预先分配固定大小内存块,减少运行时malloc/free调用频率,避免内存碎片化。结合动态池化策略,对AI推理过程中的临时缓冲区进行高效复用,确保在资源受限环境下的内存使用确定性和稳定性。热更新机制:A/B分区更新方案设计设计A/B双分区存储结构,在升级过程中,新固件或模型先写入备用分区,验证通过后再切换启动分区,确保升级过程零宕机,有效避免因更新失败导致设备变砖的风险,保障嵌入式AI系统的持续可靠运行。性能监控:关键指标实时采集与分析集成Prometheus客户端或类似轻量级监控工具,实时采集NPU利用率、内存带宽、推理延迟、功耗等关键性能指标。通过对这些数据的分析,及时发现系统瓶颈,为模型优化和硬件资源调配提供依据,确保AI应用在嵌入式设备上的高效运行。推理正确性验证:端侧与云端结果比对在模型部署到嵌入式设备后,通过输入标准测试数据集,将端侧推理结果与云端高精度模型的输出结果进行比对。利用Netron可视化模型结构,结合TensorFlowLiteModelAnalyzer等工具分析各层耗时与精度损失,确保模型在嵌入式环境下的推理准确性。C++模块化部署技术

模块化设计的核心思想与嵌入式AI适配性模块化设计强调将复杂系统拆分为独立、可复用的功能单元,提升开发效率与系统可维护性。在嵌入式AI场景中,资源受限和实时性要求使得模块化架构尤为重要,通过将AI推理、数据采集、控制逻辑封装为独立模块,实现功能解耦,例如传感器数据预处理模块可独立优化而不影响模型推理部分。高内聚低耦合的组件划分通过将AI推理、数据采集、控制逻辑封装为独立模块,实现功能解耦。例如,传感器数据预处理模块可独立优化而不影响模型推理部分。可定义标准化的AI模块接口,如包含preprocess(输入归一化)、inference(调用轻量级推理引擎)、postprocess(解析输出并触发动作)等函数指针的结构体,便于在不同硬件平台间移植。基于Pimpl惯用法的编译防火墙实现Pimpl(PointertoImplementation)是一种C++中常用的编译防火墙技术,通过将类的实现细节移至一个独立的私有结构体中,并使用前向声明和指针封装,有效减少头文件依赖,降低编译耦合。其优势在于减少编译依赖提升构建速度、增强接口稳定性支持二进制兼容性,但会带来额外堆内存开销和间接访问成本。资源受限环境下的内存管理策略在嵌入式系统或物联网设备中,内存资源极为有限,传统的动态内存分配机制容易引发碎片化和耗尽问题。可采用静态内存池设计,预先分配固定大小的内存块池,避免运行时碎片,提升分配效率与确定性;也可采用引用计数回收机制,通过手动管理对象生命周期,及时释放无用内存。静态多态与策略模式在AI引擎中的应用在高性能AI推理引擎中,静态多态结合策略模式可显著提升执行效率与模块灵活性。通过模板实现静态多态,编译期即可确定调用路径,避免虚函数开销。例如,可设计模板化的AI引擎类,通过模板参数注入不同计算策略(如CPU、GPU或专用加速器),在编译期完成多态绑定,实现零成本抽象。嵌入式AI的未来发展趋势07技术演进方向硬件架构创新:专用AI芯片与异构计算嵌入式AI硬件正朝着专用化与异构化方向发展,如NPU(神经网络处理单元)专为深度学习设计,能效比可达传统CPU的10倍以上。异构计算架构(CPU+GPU+NPU/FPGA)成为主流,例如NVIDIAJetson系列、华为昇腾Atlas和GoogleEdgeTPU,满足不同AI任务的并行计算需求。模型优化技术:轻量化与动态适应模型压缩技术持续发展,包括量化(将float转为int8,降低算力需求)、剪枝(删除冗余节点,减小模型体积)、知识蒸馏(用小模型学习大模型知识)。同时,动态推理技术根据输入数据特性选择性激活模型层,结合在线学习和模型热更新,实现系统自主优化行为模式。软件生态发展:框架标准化与工具链成熟轻量级AI框架如TensorFlowLiteMicro、PyTorchMobile、ONNXRuntimeLite日益成熟,推动模型部署标准化。开发工具链如STM32Cube.AI、NanoEdgeAIStudio

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论