【《四旋翼无人机运动目标检测算法分析案例》4800字】_第1页
【《四旋翼无人机运动目标检测算法分析案例》4800字】_第2页
【《四旋翼无人机运动目标检测算法分析案例》4800字】_第3页
【《四旋翼无人机运动目标检测算法分析案例》4800字】_第4页
【《四旋翼无人机运动目标检测算法分析案例》4800字】_第5页
已阅读5页,还剩4页未读 继续免费阅读

付费下载

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

四旋翼无人机运动目标检测算法分析案例目录TOC\o"1-3"\h\u16498四旋翼无人机运动目标检测算法分析案例 1164451.1运动目标检测算法分析 1138521.2无人机运动目标检测算法流程 5278841.4运动物体的中心计算 8由于GPS读取的位置信息误差比较大,四旋翼无人机自主着陆过程对无人机位置控制要求较高,因此我们考虑在无人机降落(着陆)环节引入基于视频的运动目标检测控制算法来降落精度和安全性。运动目标检测是车载自动起降控制模块的关键部分,是整个控制系统能够准确、实时控制四旋翼无人自动降落的基础。运动目标检测使用计算机视觉、数字图像处理、模式识别等技术,通过对视频序列图像进行处理,将运动物体区域从背景区域中提取出来,得到运动目标的位置、大小等数据,为后续处理提供支持。运动目标检测算法根据背景区域运动与否可分为静态背景检测与动态背景检测,静态背景是指摄像机镜头位置固定,动态背景是指摄像机镜头位置随运动物体变化。动态背景下的运动目标检测由于存在背景区域的相对移动,模型建立与检测算法相当复杂。本章主要研究了静态背景下的运动目标检测算法,经实验该算法能实时有效地检测出运动物体。1.1运动目标检测算法分析目前,运动目标检测算法主要有帧间差分法、背景减除法、光流法等,帧间差分法、背景减除法一般用于静态背景下的运动目标检测,而光流法既可用于静态背景也可用于动态背景,各种算法具有各自的优缺点和适用范围。(1)帧间差分法帧间差分法是对连续视频序列帧图像,进行像素的帧间差分运算来提取相邻帧的变化区域,从而得到运动物体的方法[23]。通常选取相邻的两帧或三帧图像进行差分运算,设时刻当前帧图像为,时刻的前一帧图像为,对当前帧图像与前一帧图像进行差分运算如下:(1.1)其中与分别为当前帧和前一帧图像坐标为处的灰度值,为差分后的绝对值,由判断出运动目标区域:(1.2)其中为判决阀值,若相邻两帧图像同一像素间灰度值相差大于,则二值图像相应像素为1,表示运动目标区域,否则为0表示背景区域。帧间差分法的流程图如图1.1所示。图1.1帧间差分法流程图将得到的二值图像进行形态学滤波后,输出检测出的运动目标,仿真结果如图1.2所示。(a)第fk-1帧图像(b)第fk帧图像(c)第fk+1帧图像.(d)fk-fk-1帧结果(e)fk+1-fk帧结果图1.2帧间差分法检测结果从实验结果可以看出,帧间差分法能迅速检测出场景中的运动目标,计算量小便于实现,但如图1.2(d)、(e)所示帧间差分法提取物体边界不完整,且物体内部有较大空洞,如果目标运动速度太快,会使物体形状拉伸如图1.2(d),如果目标运动速度太慢,又会使物体部分边界重叠如图1.2(e),目标的运动速度直接影响帧间差分法的检测性能。目前,提出了三帧双差分法、五帧三差分法等改进算法,使帧间差分法的性能得到了改善。(2)背景减除法背景减除法是将视频序列当前帧与背景模型进行差分,来提取当前帧相对于背景模型的变化区域,从而得到运动目标的方法[24]。背景减除法的核心是建立并维护一个背景模型,假设获取的视频序列第1帧为背景模型,当前视频帧为,将当前帧与背景模型进行差分运算如下:(1.3)其中为当前帧图像坐标像素灰度值,为背景模型对应像素灰度值,为差分后绝对值,由判决阀值对差分后图像进行二值化:(1.4)二值图像中,像素为1的区域即检测出的运动目标区域,背景减除法的流程图如图1.3所示。图1.3背景减除法流程图将得到的二值图像进行形态学滤波后,输出检测出的运动目标,对背景减除法进行仿真,结果如图1.4所示。从实验结果可以看出,背景减除法可以快速获得较完整的运动目标像素,克服了帧间差分法只能获取目标轮廓、轮廓形状发生变化等的不足,且计算量小适用于实时性要求较高的系统。但背景减除法对场景的变化特别敏感,当场景中的背景像素发生变化,如光照产生阴影、树叶被风吹动等情况,而运动目标尺寸较小,就会对检测结果产生较大的影响。背景减除法的性能严重依赖于背景模型的获取与更新,如图1.4(c)当无人机未进入场景时有鸟经过,而背景模型由第1帧替换为鸟经过时序列帧,检测结果如图1.4(e)就会出现差错。因此,背景模型的建立与更新是背景减除法性能的关键,也是该方法研究的重点。(a)当前帧fk(b)背景模型bk(c)更新后背景模型b’k.(d)fk-bk结果(e)fk-b’k结果图1.4背景减除法检测结果(3)光流法光流法是利用运动目标随时间变化的光流特性,通过对视频序列帧图像的光流场进行计算,从而得到运动目标的方法[25]。光流场是一幅图像中所有像素的速度矢量构成的矢量场,速度矢量由像素位移矢量除以帧间时间间隔得到。在视频序列的连续帧中,光流场在整幅图像中是连续变化的,当图像中出现运动目标,运动目标即前景区域速度场与静止或运动的背景区域的速度场不同,则可区分出目标区域与背景区域。光流携带了运动目标的运动和结构信息,在预先没有任何场景信息的条件下,能够检测出独立运动的目标,适用于静止背景和动态背景下的运动目标检测,但光流计算模型复杂,运算量大,在实时性要求较高的系统中很难实现。光流(Opticalflow)反映了在某段时间间隔内由于运动而引起图像的变化,其中该段时间间隔必须足够的短来保证小的帧间运动变化。光流场是一个速度矢量场,它代表三维运动的物体点在二维图像上的表现。其计算基于以下假设:1)所观察到的任意物体点亮度随时间是保持不变的;2)图像区域内的邻近像素点的移动方式类似(速度平滑性约束)。假设有一图像序列:表示在时刻上坐标的灰度值。将该图像描述成有关位置与时间的函数,然后将其展开成泰勒序列(Taylorseries):fx+dx,y+dy,t+dt=f其中fx,fy,ft分别表示f的偏导数,可以假设,在时间间隔dfx+dx,y+dy,t+dt=fx若dx,dy,dt非常小,那么可以忽略不计(3,6)中的高阶项,且有−ft=f算法的目标是计算速度c=dxdtfx,fy,ft−ft=f其中∇f二维图像梯度。式(1.光流法在提前不知道有关任何场景信息的情形下,能检测到独立的运动对象,与摄像机状态无关。虽然基于光流法对目标进行检测可以精确计算出目标的速度,但是大多数都要遍历帧中所有像素来评估光流,计算复杂耗时,对噪声敏感,若无特殊的硬件支撑,很难用在实时的视频图像处理系统中。1.2无人机运动目标检测算法流程本文四旋翼无人机运动目标检测算法要求从采集的视频序列帧中检测出场景中出现的运动目标,场景为摄像机固定的静态背景,能检测出单个或多个运动目标。整个检测算法分为序列图像预处理、基于累积差分更新背景减除法、检测后处理三个阶段。图像预处理包括:灰度图像转换,图像滤波;基于累积差分更新背景减除法包括:背景模型建立与更新,运动目标提取;检测后处理包括:形态学滤波,连通分量分析。检测算法流程图如图1.5所示。图像数据输入图像数据输入图像灰度转换图像滤波首帧图像初始背景图像背景图像更新当前背景图像与当前帧图像相减并二值化形态学滤波连通分量分析获得运动目标图1.5检测算法流程图首先,将采集到的视频序列图像去掉色彩信息,保留亮度信息,即将彩色图像转换为灰度图像,对于RGB格式的图像序列使用公式(2.3)进行转换。变换为灰度图像后,使用均值滤波模板对灰度图像进行滤波,减小了图像中的高斯噪声,同时也去除了部分非目标物体的不相干细节。若当前图像为第1帧图像,将其作为初始背景,若为后续帧图像,则按公式(1.4)更新算法对背景模型进行更新,更新参数取,本文设定更新60帧后开始检测目标,将当前帧与背景模型相减,由判决阀值将差分结果二值化,得到的二值图像,使用开运算进行形态学滤波,结构元素,消除其中存在的噪声,获得较好的目标形态。然后通过连通分量分析,将像素点按8邻域搜索依次标上标记,将相同标记像素集合作为一个整体,像素数目大于一定值即为检测出的运动目标,输出检测结果。1.3基于投影的运动目标定位视频图像运动目标定位实质上就是给出视频中运动目标的位置参数,能够对运动目标进行精确的位置描述并且为后续的处理做铺挚。本章对于视频图像运动目标的定位研究是在上一章对于运动目标精确检测的基础上对于视频每一帧的运动目标进行定位,根据具体的位置参数将运动目标在具体的每一帧中标记出来并给出运动目标的中心位置和重心位置的坐标。对视频图像运动目标进行定位主要有基于区域生长的定位、基于投影的定位和基于聚类的定位三种方法。基于区域生长的定位方法不仅对于要处理的对象要求具有良好的空域连通性而且非常容易出现过度分割的现象,此外基于区域生长的定位一般来说运算量相对较大。基于聚类的定位方法在处理视频图像运动目标的定位时一般针对视频中存在着多个运动目标的情况进行处理,并且基于聚类的方法有着较高的算法复杂度。本文主要研究的是固定视频录入设备的单运动目标的定位,结合上面提到的各种定位方法我们选择基于投影的运动目标定位方法。对于利用上一节的的改进算法对视频图像进行处理后我们可以得到效果较理想的检测效果,我们将运动目标的像素点像素值设为255,其余所有点的像素值设为0得到运动目标检测效果的二值图像。确定具体运动目标区域时我们通过对含有运动目标的二值图像进行逐行扫描,可以得到运动前景对应的像素点在水平方向的具体分布情况,同理当我们对此二值图像进行逐列扫描时能够得到运动前景对应的像素点在垂直方向具体的分布情况。得到运动目标对应的像素点具体的分布情况我们就可以将此运动目标在具体的视频帧中标记出来。具体的标记情况如图1.6所示:图1.6而当我们将标记的情况反映到具体的视频帧中并用红色的矩形将运动目标在具体的视频帧中进行标记,具体的效果如图1.7所示:图1.7从上面的两幅图中我们可以看出我们已经利用矩形框对运动目标进行了较好的定位标记,然而在实际应用过程中定位不仅要求我们将运动目标标记出来,还要给出运动目标的中心和重心位置。1.4运动物体的中心计算在对视频中的运动物体利用投影法进行定位后我们往往更需要精确的定位信息,其中比较重要的一点就是求出运动物体的中心位置,给出此中心位置的具体坐标并且在具体的视频帧中将中心位置坐标标记出来。若要得到准确的坐标值,我们首先应该明确图像对应的坐标系和坐标原点。对于视频图像具体的坐标系而言,原点在左上角,水平向右指向的为x轴,垂直向下指向的为y轴,在视频帧中具体的坐标值是基于此坐标系的。具体坐标系如图1.8所示:xxy图1.8对于具体分辨率的视频所对应的视频帧的具体大小也是已知的。通过扫描检测到的运动目标所对应的像素我们可以得到运动目标的每个点在具体分辨率的视频帧图像中的坐标。使用投影定位分析法可以得到检测到的运动目标所对应的像素具体的分布情况及坐标值。通过逐行的扫描可以得到运动对象所有的像素点所对应的最小行号rmin和最大行号rmax,同理在逐列进行扫描时可以得到运动对象所有的像素点所对应的最小列号cmin和最大列号cmax。然后利用得到的行号rmin和rmax以及列号cmin和cmax。可以得到矩形框最需要的两个对角点。由于视频帧图像的最小行号rmin面对应着y轴方向的最小值ymin,最大行号rmax对应着y轴方向的最大值ymax,同理最小列号cmin对应着x轴方向的最小值xmin,最大列号cmax对应着X轴方向的最大值xmax。通过上述分析我们可以得到矩形框的两个对角点(xmin,ymin)和(xmax,ymax),其中(xmin,ymin)对应着左上角的点,(xmax,ymax)对应着右下角的点。通过这两个点就可以画出具体的矩形,这也是上面小节中如何得到矩形框的具体过程。具体形式如图1.9所示:xxy图1.9在矩形框对运动物体进行标记的基础上我们还要求出运动物体的中心坐标并且在具体的帧

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论