基于局部卷积的边缘AI动作检测的设计与实现_第1页
基于局部卷积的边缘AI动作检测的设计与实现_第2页
基于局部卷积的边缘AI动作检测的设计与实现_第3页
基于局部卷积的边缘AI动作检测的设计与实现_第4页
基于局部卷积的边缘AI动作检测的设计与实现_第5页
已阅读5页,还剩46页未读 继续免费阅读

付费下载

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

图4-19。图4-SEQ图4-\*ARABIC19高分辨率视频性能测试我们对比观察可以发现虽然视频整体分辨率大幅上升,但是在帧率(FPS)仍然保持在一个较高的水平,大约55FPS,与低分辨率视频的63FPS差别不大。4.6本章小结本章首先对实验所用到的CNN编码器中的每一个模块以及整体架构做了详细的分析。然后详细的说明了数据集选取与处理,模型的训练优化技术和模型的评估,最后阐明了推理系统的设计和测试。证明了该边缘AI动作检测分类任务的优越性。第五章总结与展望5.1总结本研究的主要目标是通过改进传统的卷积神经网络实现高效的动作检测,并将其应用于边缘设备上进行实时视频分析。为此,本研究设计并实现了一种基于局部卷积的边缘AI动作检测算法,该算法能够在计算资源受限的环境下,准确高效地识别和分类不同类型的动作。本研究立足于现有的研究方法以及国内国外形势,分析了边缘端部署AI模型的优势以及不足。针对这些不足,本研究设计了一套高效的视频帧特征提取与处理算法,并将这些提取出来的帧序列送入卷积神经网络。本研究并非是为传统的卷积神经网络瘦身,而是希望设计出一种本身就轻量小巧同时满足特征提取精准度的高性能网络,该网络采用了空间到通道的变换模块和Ghost网络模型作为空间特征提取器,再将获得的特征序列送入循环神经网络的方式来推理动作。该模型具有较低的计算开销和内存消耗,能够在边缘设备上运行,满足低时延、高吞吐的要求。为了进一步降低部署成本,在模型的实现过程中,我们引入了适应性微调策略来增强模型在不同应用场景下的泛化能力并降低相应场景下的训练耗时。我们将该模型应用于UCF101数据集上,模型能够在无需依赖云计算资源的情况下,快速响应并提供准确的动作检测结果,展示了强大的潜力。结果表明,该方法能有效降低传统卷积神经网络的计算量,符合我们最初设计面向边缘端设备轻量化模型而非云端大模型的初心。此外,该方法还具有良好的可扩展性和可重用性,可以应用于其他类似的卷积神经网络的分类任务中。5.2反思与展望本文的研究更多侧重于卷积神经网络部分,而对于循环神经网络部分,我们仅仅是粗略的采用了集成的GRU网络,我们未对其做足够的改进让模型更轻、更快。模型结构的优化仍然是提升性能的一个重要方向,当前模型的精度距离真正部署到工业生产中仍然有一定的距离,可以通过引入更加先进的神经网络架构,或者对现有结构进行微调和改进,以提高其计算效率和识别精度。当前模型的微调方法主要依赖于已有的预训练模型进行迁移学习,但在不同领域或特定场景下,如何通过自适应的微调策略进一步提升模型的表现,仍然是一个值得深入探讨的问题。我们可以尝试结合领域自适应、无监督学习等技术,进一步提高模型在小样本数据或特定任务下的表现。提高模型的泛化能力也是未来研究中的重要目标。本次采用的数据集有限,我们也许可以将该模型应用于更多的数据集综合评价它的性能和精度,例如通过引入标准对照组,让模型的能力更加具有说服力。在现实应用中,数据分布的变化和噪声的影响可能导致模型性能的下降。因此,如何设计更加鲁棒的训练策略,减少过拟合,提高模型在不同环境下的适应能力,将直接影响到模型在实际应用中的稳定性和可靠性。可以考虑引入对抗训练、数据增强等技术,进一步提高模型的泛化能力。随着工业自动化和智能化的发展,模型与硬件设备的结合将成为未来研究的另一个热点。可以探索将该系统与工业相机等高性能图像采集设备结合,实现实时、精准的动作识别和监控。这不仅能够提升模型的应用场景,还能够扩展其在生产线、安防监控等行业中的实际应用潜力。总的来说,未来的研究将围绕优化模型架构、提升泛化能力和改进硬件结合展开,期待能在实际应用中取得更好的效果,为更多领域的智能化进程提供支持。

参考文献ToshevA,SzegedyC.Deeppose:Humanposeestimationviadeepneuralnetworks[C]//ProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition.2014:1653-1660.FeuerriegelS,HartmannJ,JanieschC,etal.Generativeai[J].Business&InformationSystemsEngineering,2024,66(1):111-126.ChangY,WangX,WangJ,etal.Asurveyonevaluationoflargelanguagemodels[J].ACMtransactionsonintelligentsystemsandtechnology,2024,15(3):1-45.ZhengJ,QiuS,ShiC,etal.Towardslifelonglearningoflargelanguagemodels:Asurvey[J].ACMComputingSurveys,2025,57(8):1-35.CaoL,HuoT,LiS,etal.Costoptimizationinedgecomputing:asurvey[J].ArtificialIntelligenceReview,2024,57(11):312.XuY,KhanTM,SongY,etal.Edgedeeplearningincomputervisionandmedicaldiagnostics:acomprehensivesurvey[J].ArtificialIntelligenceReview,2025,58(3):1-78.VargheseB,WangN,BarbhuiyaS,etal.Challengesandopportunitiesinedgecomputing[C]//Proceedingsof2016IEEEinternationalconferenceonsmartcloud(SmartCloud).IEEE,2016:20-26.CaoZ,HidalgoG,SimonT,etal.Openpose:Realtimemulti-person2dposeestimationusingpartaffinityfields[J].IEEEtransactionsonpatternanalysisandmachineintelligence,2019,43(1):172-186.LiuR,ShenJ,WangH,etal.Attentionmechanismexploitstemporalcontexts:Real-time3dhumanposereconstruction[C]//ProceedingsoftheIEEE/CVFconferenceoncomputervisionandpatternrecognition.2020:5064-5073.周飞燕,金林鹏,董军.卷积神经网络研究综述[J].计算机学报,2017,40(6):1229-1251.CaiG,WeiX,LiY.Privacy‐preservingCNNfeatureextractionandretrievalovermedicalimages[J].InternationalJournalofIntelligentSystems,2022,37(11):9267-9289.LeCunY,BengioY,HintonG.Deeplearning[J].Nature,2015,521(7553):436-444.RasamoelinaAD,AdjailiaF,SinčákP.Areviewofactivationfunctionforartificialneuralnetwork[C]//Proceedingsof2020IEEE18thworldsymposiumonappliedmachineintelligenceandinformatics(SAMI).IEEE,2020:281-286.马月坤,陈昊编.人工智能通识教材人工智能导论[M].北京:清华大学出版社,2021.SalehinejadH,SankarS,BarfettJ,etal.Recentadvancesinrecurrentneuralnetworks[J].arXivpreprintarXiv:1801.01078,2017.MienyeID,SwartTG,ObaidoG.Recurrentneuralnetworks:Acomprehensivereviewofarchitectures,variants,andapplications[J].Information,2024,15(9):517.SrinathKR.Python–thefastestgrowingprogramminglanguage[J].InternationalResearchJournalofEngineeringandTechnology,2017,4(12):354-357.KetkarN,MoolayilJ,KetkarN,etal.Introductiontopytorch[J].Deeplearningwithpython:learnbestpracticesofdeeplearningmodelswithPyTorch,2021:27-91.杨真真,匡楠,范露,等.基于卷积神经网络的图像分类算法综述[J].信号处理,2018,34(12):1474-1489.ShahB,BhavsarH.Timecomplexityindeeplearningmodels[J].ProcediaComputerScience,2022,215:202-210.LillicrapTP,SantoroA.Backpropagationthroughtimeandthebrain[J].Currentopinioninneurobiology,2019,55:82-89.YuF,KoltunV.Multi-scalecontextaggregationbydilatedconvolutions[J].arXivpreprintarXiv:1511.07122,2015.SunkaraR,LuoT.Nomorestridedconvolutionsorpooling:AnewCNNbuildingblockforlow-resolutionimagesandsmallobjects[C]//ProceedingsofJointEuropeanconferenceonmachinelearningandknowledgediscoveryindatabases.Cham:SpringerNatureSwitzerland,2022:443-459.TkačikG,PrenticeJS,VictorJD,etal.Localstatisticsinnaturalscenespredictthesaliencyofsynthetictextures[J].ProceedingsoftheNationalAcademyofSciences,2010,107(42):18149-18154.KoziarskiM,CyganekB.Impactoflowresolutiononimagerecognitionwithdeepneuralnetworks:Anexperimentalstudy[J].InternationalJournalofAppliedMathematicsandComputerScience,2018,28(4).林炳辉,张建勋,乔欣雨.混合内存架构下数据放置研究综述[J].计算机应用研究,2024,41(09):2585-2591.DOI:10.19734/j.issn.1001-3695.2023.12.0639.HanK,WangY,TianQ,etal.Ghostnet:Morefeaturesfromcheapoperations[C]//ProceedingsoftheIEEE/CVFconferenceoncomputervisionandpatternrecognition.2020:1580-1589.JiangDY,KimJ.Imageretrievalmethodbasedonimagefeaturefusionanddiscretecosinetransform[J].AppliedSciences,2021,11(12):5701.HeK,ZhangX,RenS,etal.Deepresiduallearningforimagerecognition[C]//ProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition.2016:770-778.SimonyanK,ZissermanA.Verydeepconvolutionalnetworksforlarge-scaleimagerecognition[J].arXivpreprintarXiv:1409.1556,2014.HeK,ZhangX,RenS,etal.Deepresiduallearningforimagerecognition[C]//ProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition.2016:770-778.BjorckN,GomesCP,SelmanB,etal.Understandingbatchnormalization[J].Advancesinneuralinformationprocessingsystems,2018,31.CholletF.Xception:Deeplearningwithdepthwiseseparableconvolutions[C]//ProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition.2017:1251-1258.HowardAG,ZhuM,ChenB,etal.Mobilenets:Efficientconvolutionalneuralnetworksformobilevisionapplications[J].arXivpreprintarXiv:1704.04861,2017.SzegedyC,IoffeS,VanhouckeV,etal.Inception-v4,inception-resnetandtheimpactofresidualconnectionsonlearning[C]//ProceedingsoftheAAAIconferenceonartificialintelligence.2017,31(1).ZantoTP,GazzaleyA.Neuralsuppressionofirrelevantinformationunderliesoptimalworkingmemoryperformance[J].JournalofNeuroscience,2009,29(10):3059-3066.HuJ,ShenL,SunG.Squeeze-and-excitationnetworks[C]//ProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition.2018:7132-7141.WooS,ParkJ,LeeJY,etal.Cbam:Convolutionalblockattentionmodule[C]//ProceedingsoftheEuropeanconferenceoncomputervision(ECCV).2018:3-19.WuraolaA,PatelN.Resourceefficientactivationfunctionsforneuralnetworkaccelerators[J].Neurocomputing,2022,482:163-185.SoomroK,ZamirAR,ShahM.UCF101:Adatasetof101humanactionsclassesfromvideosinthewild[J].arXivpreprintarXiv:1212.0402,2012.CuljakI,AbramD,PribanicT,etal.AbriefintroductiontoOpenCV[C]//Proceedingsof2012proceedingsofthe3

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论