基于yolov5的安全帽佩戴检测_第1页
基于yolov5的安全帽佩戴检测_第2页
基于yolov5的安全帽佩戴检测_第3页
基于yolov5的安全帽佩戴检测_第4页
基于yolov5的安全帽佩戴检测_第5页
已阅读5页,还剩1页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

基于yolov5的平安帽佩戴检测摘要:平安帽作为防止人员头部受到伤害的防护用品,在进入电厂等高危场所时,要求必须佩戴。在实际工作中,不佩戴平安帽进入作业现场的情况时有发生。为了破解这一难题,创造了一项基于平安帽的智能检测技术。本研究通过YOLOv5方法对用户进行训练,并选择了YOLOv5系统中网络深度最大和带宽最少的YOLOv5s模型。试验结果说明,在自采数据集中训练并检测,平均精度达95.4%,能够满足电厂等高危场所对人员不按规定佩戴平安帽的实时监测要求。关键词:深度学习;目标检测;YOLOv5;平安帽引言:电厂、建筑工地等行业工作人员很多,且风险高,非常容易出现交通事故。工人在现场进行高空作业时,身边存在很多平安隐患,容易造成事故。意外事故后,头部受伤导致死亡和伤害的概率最大,应随时对头部做好防护措施。平安帽能够抵挡并转移跌落物体的冲击力,还可以降低人在从高处跌落头部或先着地时的冲击范围,从而有效保护头部。因此佩戴平安帽是有效减少意外风险、保障人员人身平安的防护手段。在实际工作中,对于不按规定佩戴平安帽的行为,通常采用人工监管的方式进行管理。人工监管缺点明显:一是消耗人力;二是人工监管缺乏客观性。通过人工智能技术来取代以往的人力监测,实现平安帽佩戴的智能化监测,既节约时间本钱,又提高了现场平安性。近年来,由于深度学习的迅速开展,目标检测技术又引发了新一轮的研发浪潮,给平安帽的智能测试技术带来了全新的研发方向。目前,主流的深入学习目标检测计算大致包括了双阶段测试计算和单阶段测试计算。双阶段测试计算即以R-CNN系列为典型代表的根据候选范围的目标检测计算;单阶段测试计算即以YOLO、SSD为典型代表的根据回归式分析法的目标检测计算。前者检测精度高但速度慢,后者检测速度快但准确度较低,更加适用于需要实时检测的目标识别问题。徐守坤等提出了通过改良FasterR-CNN的保安帽佩戴监测研发。施辉等提出了采用YOLOv3的防护帽子穿戴监测研发方法。这些方法都是采用了深度学习的小目标监测算法,而FasterR-CNN那么存在速度慢,无法适应实时目标监测所需要的技术问题。YOLOv3那么具有测量准确度较低,对小目标识别效率不好的问题。而YOLO系列中新推出的YOLOv5具备了速度快、精度高、体积小等优势,并通过Mosaic数据增强方法有效克服了数据集少、对小目标测量准确度较低问题。本文以佩戴平安帽的人员和未佩戴平安帽的人员2分类目标为检测任务,对视频数据进行预处理,构建平安帽检测数据集。使用YOLOv5算法进行数据集的训练,以获取能够满足需求的平安帽检测模型;通过试验结果说明,本文所使用的算法满足相应场景下的检测需求。1.YOLOv5目标检测算法原理YOLOv5是YOLO系统的新型目标检测网络,该算法在YOLOv4根底上又增加了假设干全新的改良思路,使其速率和准确度均获得了巨大的性能提高。YOLOv5算法有四个版本,包括YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x,YOLOv5s网络模型是在YOLOv5这一系列中深入最少、特征图长度最少的网络系统,而另外三个版本那么都是在该版本的根底上,对网络系统进行深化和拓宽。从让网站更轻量级的视角出发,在本文中选择了网络系统深入最大和宽度最少的YOLOv5s模型进行训练。YOLOv5共区分为四个通用的模块,具体分为输入端口、基准网络、Neck网络和Head输出端口。a.输入端功能主要包括Mosaic信息强化、自适应性锚框设计、自适应性图像压缩等三方面。YOLOv5通过Mosaic信息强化运算,需要用四幅照片通过随意剪切、压缩和排布进行拼接。这种方法在小目标测试效果方面较为理想,适用于本文数集平安帽的小目标测试;在网络训练中,根据不同的数据集,可能要选择一定长宽的初始停泊框,在YOLOv5中增加了自适应锚框的计算方法,可根据数据集自适应计算出最正确的锚点框;自适应图片缩放功能自适应添加最少黑边到缩放的图像中,进一步提升了算法的推理速度。b.基准网络采用Focus结构和CSP结构。Focus系统如图一所显示,其思想是利用slice操作来对输入的图像进行裁剪。在YOLOv5s中,将原尺寸为640×640×3的图片,再经过四个切片动作和1次32个折积核的卷积动作后,使原图片变为320×320×32的特征图像。在YOLOv5中设置了2个CSP架构,以YOLOv5s系统为例,CSP1_X架构一般广泛应用于Backbone的主要手段网上,而另一个CSP2_X架构那么一般广泛应用于Neck网络中。c.Neck网络采用了FPN+PAN架构,FPN为自顶向下的,将高级信息内容经过上采集方法与底层信息内容的结合得出可以提供预测的特性图,而FPN为自顶向下将高层的特性信息内容经过上采集的方法来实现消息传递融合,进而传达更高语义信息,PAN那么是自底向上的消息金字塔,进而传递更高的信息内容。YOLOv4的Neck设计工作中,所使用的也是传统的折积方法,所以YOLOv5参照了美国CSPnet系统设计的CSP二架构,以进一步提高网络特征融合的水平。图1Focus结构d.输出端采用GIOU_Loss作为损失函数。在目标检测后处理过程中,为了更多目标框过滤,YOLOv5采取了加权NMS的方法。YOLOv5s网络结构如图2所示。图2YOLOv5s网络结构2试验结果分析2.1试验环境及数据集本文试验使用Windows操作系统,在pytorch环境下运行,使用GPU硬件加速运算。试验环境配置如表1所示。表1试验运行环境类别版本系统Windows10CPUIntel(R)Core(TM)i9-1090OKGPUGeForceRTX3090深度学习框架PytorchCuda11.2本文数据集所需图像均来源于自主采集,通过对监控视频进行分帧,共获得原始数据集260张。将数据集按8∶2的比例随机进行划分。由于采集数据集有限,文本对训练集进行数据增强增加训练的数据量,提高模型的泛化能力。数据增强实例如图3所示。(a)原图;(b)裁剪+噪声+镜像+旋转;(c)裁剪+噪声+旋转;(d)裁剪+旋转图3数据增强实例最终得到1160张训练集,52张测试集。数据集类别为佩戴平安帽与未佩戴平安帽⒉种,使用labelme工具对图像进行标注。2.2试验参数本试验利用YOLOv5s模型进行网络训练,根据试验数据及运行环境,调整了相应参数。具体参数设置如表2所示。表2试验参数设置参数设置值学习率0.01动量因子0.937权重衰减系数0.0005Batchsize8Epochs3002.3试验结果本文使用精度(Precision)、召回率(Recall)和平均精度均值(meanaverageprecision,MAP)等常用指标来评估模型性能的优良。Recall定义为所有目标都被模型检测到的比例,用于衡量模型的查全率。MAP为平均精度均值,是模型在多个检测类别上平均精度AP的均值,MAP的计算需要用到精度(Precision)和召回率(Recall)2个指标。图4阈值为0.5时的PR曲线图4为阈值取0.5时,以recall为横坐标,precision为纵坐标制作的PR曲线,PR曲线下围成的面积即平均精度AP,所有类别AP平均值即MAP。其公式分别为式中:P为Precision;r为Recall.式中:C为目标检测的总类别数。试验结果说明,佩戴平安帽人员检测平均精度为92.7%,未佩戴平安帽人员检测平均精度为98.1%,所有类别平均精度为95.4%,权重大小为13.7Mb,检测视频fps为25,结合模型大小、平均精度和检测视频fps来看,该算法可以满足嵌入式设备或移动端对人员佩戴平安帽检测的准确性和速度要求。图5为YOLOv5s检测结果。图5YOLOv5s检测结果3.结语针对不佩戴平安帽进入施工现场的危险行为,本文提出了一种平安帽智能检测方法。以YOLOv5网络为模型,自主采集数据集并进行数据增强,以提高模型鲁棒性。试验结果说明,数据集在YOLOv5网络模型中表现出色,网络模型的平均精度到达了95.4%,检测视频fps为25,实现了在保证检测精确度的同时,对人员不佩戴平安帽的实时检测。参考文献:[1]王书献,张胜茂,朱文斌,等.基于深度学习YOLOV5网络模型的金枪鱼延绳钓电子监控系统目标检测应用[J].大连海洋大学学报,2021.[2]蒋润熙,阿里甫·库尔班,耿丽婷.面向轻量化网络的平安帽检测算法[J].计算机工程与应用,2021,57(20):8.[3]李玄锋,夏毅,黄越,等.基于改良YOLOv5的智慧交通电动车头盔佩戴识别系统[J].信息技术与信息化,2022(9):4.[4]刘洪,王元华,何健,等.YOLOv5算法在山火检测中的应用[J].兴义民族师范学院学报,2022(4):6.[5]杨陆野.基于YOLO和帧间差分法的飞鸟检测算法[J].现代信息科技,2021.[6]罗旺,席

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论