【《基于Faster RCNN的车辆目标检测算法设计案例》1800字】_第1页
【《基于Faster RCNN的车辆目标检测算法设计案例》1800字】_第2页
【《基于Faster RCNN的车辆目标检测算法设计案例》1800字】_第3页
【《基于Faster RCNN的车辆目标检测算法设计案例》1800字】_第4页
【《基于Faster RCNN的车辆目标检测算法设计案例》1800字】_第5页
全文预览已结束

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

基于FasterRCNN的车辆目标检测算法设计案例目录TOC\o"1-3"\h\u16182基于FasterRCNN的车辆目标检测算法设计案例 1277251.2FasterRCNN算法原理 1131421.2.1特征提取网络 23841.2.2区域产生网络 2170541.2.3目标检测网络 41.1两级目标检测算法原理基于两级目标检测的车辆检测方法分两步,第一步通过专用模块去生成候选框,寻找物体以及调整候选框。第二步再基于滑动窗口思想将多个候选区域图像按照相同尺寸输入卷积神经网络进行分类以及回归操作。其特点是检测刚准确,但也相对耗时间。1.2FasterRCNN算法原理FasterRCNN网络架构由3个网络组成,分别是特征提取(FeatureExtraction)网络、区域产生(RegionProducedNetwork,RPN)网络和目标检测分类和识别(ROIHead)网络,如图3-1所示。特征提取模块也就是我们深度学习中的神经网络,用来提取图像特征。区域产生网络是该算法的创新部分,与前两代网络采用SelectiveSearch算法滑动窗口不同,这里采用了对特征图中的每个点作为中心点生成多个大小比例不同的锚框的方式。RoiHead模块和FastRCNN一致是用来对所生成的候选区进行目标分类以及位置的修正回归。总的FasterR-CNN算法流程可分为3个步骤:(1)将图像输入网络得到相应的特征图(2)使用RPN结构生成候选框,将RPN生成的候选框投影到特征图上获得相应的特征矩阵(3)将每个特征矩阵通过ROIpooling层缩放到7x7大小的特征图,接着将特征图展平通过一系列全连接层得到预测结果。图3-1FasterRCNN网络1.2.1特征提取网络特征提取网络即卷积神经网络,一般选择被广泛使用的网络架构来实现图像特征的提取,在目标检测中特征提取网络又称为backbone。在FasterRCNN中采用了VGG16网络。VGG16网络具有良好的适配性,可以针对许多数据集。这一网络含有13个卷基层,13个激活函数层和4个池化层。ADDINEN.CITE<EndNote><Cite><Author>Simonyan</Author><Year>2014</Year><RecNum>29</RecNum><DisplayText><styleface="superscript">[13]</style></DisplayText><record><rec-number>29</rec-number><foreign-keys><keyapp="EN"db-id="5t9pfd9xkppsfyep0zsx9etkdzzrtvvx2vtt"timestamp="1621258674">29</key></foreign-keys><ref-typename="JournalArticle">17</ref-type><contributors><authors><author>Simonyan,K.</author><author>Zisserman,A.%JComputerScience</author></authors></contributors><titles><title>VeryDeepConvolutionalNetworksforLarge-ScaleImageRecognition</title><secondary-title>ComputerScience</secondary-title></titles><periodical><full-title>ComputerScience</full-title></periodical><dates><year>2014</year></dates><urls></urls></record></Cite></EndNote>[13]如图3-2所示。特征提取网络提取出的特征可以说是整个网络最基础的一步,由于特征将被传输到RPN生成目标候选区与ROIHead网络进行图像中的目标分类与位置回归,可以说特征质量的好坏决定了一个算法实际落地时能否达到我们要求的标准。当然,与VGG16特征提取网络不同,当下的学界也提出了众多种类的特征提取网络,相比VGG16有了更大的进步。这将在第五章进行讲解。图3-2VGG16结构图1.2.2区域产生网络区域生成网络分为两部分。首先是锚框生成部分,通过将特征图像的每个像素点作为中心点,生成若干个大小比例不同的边界框(anchor)。在该算法中,特征图每个位置生成若干个个锚框,一般为9个。见图3-3所示。图中红色、蓝色和绿色代表三种anchor,它们的大小不同。每种anchor又分成了长宽比为1:2、1:1.2:1的三个Anchor。原文的anchor对于车辆目标检测不具备针对性,将在第五章对anchor进行重新聚类,改进。图3-3锚框生成示意图上述得到的锚框将与真实框进行对比,通过取定IoU的阈值来标定这些anchorbox的正负。这里的正负样本表示anchor是否含有物体。一般来说,正样本为与某一真实框IoU最大的anchor(避免anchor与真实框的IoU都小于0.7情况)或是与任意真实框IoU〉0.7的anchor。而负样本是与所有真实框的IoU〈0.3的anchor。于是,传入RPN网络的样本数据被整理为anchorbox(坐标)给回归分支和每个anchorbox是否有物体(二分类标签,这里将正样本幅值为1,表示为物体,负样本赋值为0,表示为背景)给分类分支。在回归分支中,得到的是anchor到真实框的偏移量。具体为:RPN网络将每个样本映射为一个概率值和四个坐标值,概率值反应这个anchorbox有物体的概率,四个坐标值定义物体的位置用于回归分支。最后将二分类和坐标回归的损失统一起来,作为RPN网络的目标训练。通过RPN得到的损失函数来调整建议框,获取最后的预测框。损失函数为:其中:表示第i个anchor预测为真实标签的概率当为正样本时为1,当为负样本时为0表示预测第i个anchor的边界框回归参数表示第i个anchor对应的GTBox的边界框回归参数表示一个mini-batch中的所有样本数量256表示anchor位置的个数(不是anchor个数)约2400为平衡参数,具体为10(这里的256与2400是以ZF网络生成的固定大小为256d的特征图)由RPN得到预测框在根据概率值筛选后经过类似的标记过程,将被传入目标检测网络。总的区域生成网络见图3-4图3-4区域产生网络结构1.2.3目标检测网络目标检测网络主要实现对RPN网络产生的区域进行目标分类以及位置修正。主要分为感兴趣区域(RolPooling)与检测头(BBoxHead,含有Denselayer以及上面两个分支)。其中,感兴趣区域核心思想便是候选框共享特征图特征,并保持输出大小一致。具体为候选框分为若干子区域,将每个区域对应到输入特征图上,取每个区域内的最大值作为该区域地输出。在训练阶段,检测头通

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论