开题报告-基于图像的道路检测行驶控制系统.docx_第1页
开题报告-基于图像的道路检测行驶控制系统.docx_第2页
开题报告-基于图像的道路检测行驶控制系统.docx_第3页
开题报告-基于图像的道路检测行驶控制系统.docx_第4页
开题报告-基于图像的道路检测行驶控制系统.docx_第5页
已阅读5页,还剩13页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

北京联合大学毕业设计(论文)开题报告题目: 基于图像的道路检测与行驶控制系统 专业: 计算机科学与技术 指导教师: 学院: 信息学院 学号: 班级: 信息计算机1201B 姓名: 一、课题任务与目的1.1课题目标和课题任务本课题的核心目标是完成基于图像的道路检测与行驶控制系统。本课题要求利用安装在Pioneer 3-AT移动机器人平台上的单目摄像头采集道路图像,并采用图像分析和处理技术实现非结构化道路的路面区域的识别,据此控制机器人自动行驶在道路中间,同时利用移动机器人自带的声呐传感器实现障碍物的检测和行驶决策等。1.2课题背景本课题源自北京市科委大型项目基于专用嵌入式实时处理器的无人驾驶电动汽车智能控制系统开发。目前机器人的研究正在趋向高度智能化和视觉化,计算机视觉在机器人研究领域的需求越来越大,提高移动机器人的环境感知和自主导航能力对机器人的智能化将起到决定性作用。基于此背景,提出了设计基于计算机视觉的道路检测和行驶控制系统的目标。1.3课题意义随着科学技术的飞速发展,机器人的研究不断智能化。作为生产和生活中的一种新型工具,它极大地提高了人类的生产效率、扩大了工作范围,广泛应用于军事、工业、医学、服务等各行业,成为人类必不可少的工具。移动机器人(Mobile Robot)是机器人学中的一个重要分支,是能通过自身传感器获取周围环境的信息和自身状态,灵活调整自己的工作状态,保证在适应环境的情况下完成特定任务。对机器人而言,计算机视觉检测信息量大,获得的信息是对环境最全面最深入的反应,被认为是最重要的感知力。因此,基于计算机视觉的道路检测和导航技术的研究可以使得移动机器人做出更符合人类交通规则的高层路径规划,对于实现移动机器人的高度智能化以及提高当前的科技水平都有着非常积极的推动作用。开展自主智能移动机器人在非结构环境下的认知与自主导航避障方法的研究,可进一步提高我国智能驾驶技术和路径规划的研究水平,使其更好地服务于国民经济和国防建设,具有重要的理论意义和工程应用背景。二、调研资料情况2.1基于机器视觉的移动机器人研究概况20世纪60年代末,来自斯坦福研究院人工智能中心的Nilsson等研究人员共同研制出自主移动机器人Shakey1,这是首台采用了人工智能学的机器人,能够自主进行感知、环境建模、行为规划并执行任务,正式拉开了移动机器人研究领域的序幕。80年代初,在美国DARPA的支持下,CMU2,3、Martin Marietta4、Maryland5和Stanford6等单位开展了室外移动机器人(OMR)的研究,试图研制在非结构环境中能够自主移动的车辆。80年代中后期,Martin Marietta公司开发的Alvin利用视觉和范围传感器构建道路和障碍的界限,是较早实现利用视觉信息研究在非结构化道路自主行驶的机器人。CMU研究所研制的NavLab系列智能车保存了不同道路和非路的彩色模型库,利用颜色分类模型和神经网络对道路特征进行学习,其中ALVINN(Autonomous Land Vehicle In a Neural Network)是最早的道路检测系统之一,它能够适应不同的道路状况,但是对于新的道路它需要重新学习道路模型,并且需要人为干预。90年代初期德国联邦国防大学和奔驰合作制成了Caravelle7和VaMP8智能车。Caravelle系统主要研究高速公路下的视觉导航,传感器和计算机系统以视觉为主。21世纪初,美国成功登陆火星的勇气号和机遇号火星探险车以及欧洲航天局发射的猎兔犬二号火星探险器,使世界移动机器人领域的发展达到了较高的水平。意大利帕尔马大学研制的ARGO9实验车,基于道路平坦假设,使用单目视觉检测平行的车道线和双目立体视觉检测障碍物,能够自动控制方向,实现道路跟踪。 (a)机遇号火星探险车 (b)NavLab-5智能车辆 (c)ARGO实验车图2-1 国外基于机器视觉的移动机器人系统代表在我国,类似的研究开始于“八五”期间,多所高校联合研制的军用室外移动机器人7B.8,其系统可完成信息融合、全局、局部路径规划、道路边界识别和激光信息处理、定位计算和车辆自动驾驶。其体系结构以水平式结构为主,采用传统的“感知-建模-规划-执行”算法,直线跟踪速度达到20km/h,避障速度达到510km/h。清华大学计算机系自主开发了THMR系列移动机器人10,11,它的体系结构以垂直式为主,采用多层次“感知-动作”行为控制以及基于模糊控制的局部路径规划及导航控制。除了自动驾驶、遥控驾驶外,还实现了自动导航、避障。国防科技大学从20世纪80年代末开始研制出了CITAVT系列无人驾驶汽车12,90年代初期的CITAVT-III型是以在非结构化道路环境下遥控和自主驾驶为目的的智能车系统。CITAVT-IV于2000年进行实验,对于道路上的阴影、光线的变化和不规则等干扰,视觉系统具有较好的鲁棒性。吉林大学智能车辆课题组开发了JUTIV系列视觉导航智能车13 。JUTIV-IV环境感知层主要由传感器系统完成数据采集与特征提取,为决策控制层提供最基本的信息来源,即提供车辆的道路环境信息及车辆自身状态信息。(a) 7B.8地面军用智能机器人(b) THMR-V型智能车 (c) JLUIV-IV智能车图2-2 国内基于机器视觉的移动机器人系统代表2.2国外道路检测算法研究上述VaMP系统采用基于边缘的道路检测算法。利用道路轮廓比较规则这一几何特征,从道路图像的边缘图中提取路边信息14。ALVINN系统采用基于BP神经网络的机器学习方法,提取不同天气状况下车道线特征,通过对这些特征学习以获得训练模型,采用该模型对不同天气状况下的道路进行检测。NavLab系统采用彩色模型库的方法来保存不同道路和非道路的彩色特征15,并利用基于模型匹配的投票表决方法来得到地图,但是,由于模型库中只含有彩色特征,使得系统对光照的变换较敏感。德国学者F.Paetzold等在城市环境中进行了道路的识别16,并在道路识别中集成了数据驱动的全局检测和局部基于模型的跟踪。法国的Romuald Aufrere提出一种仅利用一台摄像机的单目视觉方法17,将道路的边缘特征从图像序列中提取出来,进而定位移动机器人所在车道的位置,再利用车道的统计模型进行精确匹配。意大利帕尔玛大学开发的GOLD系统,根据车道线颜色来定位车道线位置,由于光线的反射会引起识别误差,该方法只有在车道线清晰完整的情况下较准确。法国帕斯卡大学研制的Peugeot系统18,该系统对经过预处理的车道边缘采用梯度导数方法处理,通过高斯滤波处理噪声,在弯道检测方面有很好的鲁棒性。KRUS系统中就同时利用了区域信息、边缘信息和道路的先验知识19,提高了道路检测算法的准确性和可靠性。2.3国内道路检测算法研究清华大学研究的THMR系列智能系统的车道模型采用直线模型,利用双阈值进行二值化处理并提取特征,最后采用增强转移网格来完成后续处理。该算法实时性较好,但是只能准确检测和识别直线车道,弯道检测部分很容易出错。吉林大学的JUTIV系统采用3D回旋道路曲线模型,采用自适应阈值法进行二值化并提取道路边缘,采用LmedSquare方法20进行车道线拟合,建立车道线拟合的预测区域,利用多传感器信息融合技术对复杂环境下的车道线检测与跟踪做出研究。国防科技大学的CITAVT系列自主导航系统采用基于道路结构特征的方式提取车道线像素并建立车道模型,进而实现车道导航的目的。2.4国内外研究现状对比相对于国外移动机器人研究领域的蓬勃发展,国内则起步稍晚。总体来看,大多数国内外智能移动机器人的传感器大都使用以视觉为主体的多传感器融合技术,道路检测技术是视觉导航中最重要的研究技术之一,得到了迅速的发展。通过调研可知,目前有大致有三种不同的道路检测方法:基于道路特征的方法、基于道路模型的方法和基于神经网络的方法。国外研究的人工智能和机器学习领域技术较国内先进,国内的主要研究方向为基于图像特征的道路检测。基于道路图像的特征法通过分析图像特征在形状、纹理、颜色、对比度、不连续性等方面的不同,来判断哪些是道路区域。这种方法容易受光照变换、阴影、水迹及道路边界不连续等因素的影响。另外由于各个特征都存在自身的优点和不足,同时采用边缘、区域、纹理等多种特征是基于道路图像特征检测算法的一种趋势。基于道路模型匹配法的基本思想是利用二维或三维曲线,根据道路的先验知识建立道路模型,然后结合图像特征和视觉模型对道路模型参数做出估计。这种方法可以有效克服路面阴影、污染、光照不均等外界环境因素干扰,但是当道路不符合预先假设模型时,算法就会失效。基于人工神经网络来学习道路的模型,并通过它的连接权描述道路,但是这种机器学习方法需要通过学习建立大量的模型。不满足系统实时性的要求。参考文献1Nilsson N J. A mobile automaton: An application of artificial intelligence techniquesA.Proceedings of the 1st International Joint Conference on Artificial InteliigenceC. 1969:509-520.2J.Gowdy,A.Stents, et al,Hierarchical Terrain Representation for Off-road Navigation.Proc of SPIE Mobile Robots, 1991, 1388: 131-140.3S.Sanjiv,et.al, Obstacle Detection for High Speed Autonomous Navigation.Proc.of IEEE Int.Conf.on Robotics and Automation, 1991: 2798-2805.4T.R.Dunlay, Obstacle Avoidance Perception Processing for the Autonomous Land Vehicle. Proc. Of IEEE Int. Conf. On Robotics and Automation, 1988: 912-917.5K.Kluge, T.Weymouth, R.Smith. Information Assimilation Research at the University of Michigan for the ARPA Unmaned Ground Vehicle Project. SPIE Vol.2355, Sensor Fusion VII, 1994: 2-13.6E.Triend, D.J.Kringman, Stereo Vision and Navigation within Buildings. IEEE Int. Conf. Robotics and Automation, 1987: 1725-1730.7Hubert.Weisser, Peter, J.Schulenberg, et.al, Autonomous Driving on Vehicle Test Tracks: Overview, Motivation, and Concept, Proc. IEEE Conference Intelligent Vehicles98, 1998, 2: 445-450.8M.Bertozzi, A.Broggi, A.Fascioli, Vision-based Intelligent Vehicles: State of the Art and Perspectives, Robotics and Autonomous System, 2000, 32: 1-16.9A.Broggi, M.Bertozzi, A.Fascioli, Visual Perception of Obstacles and Vehicles for Platooning, IEEE Transactions on Intelligent Transportation Systems, 2000, 1(3): 164-176.10朱志刚,视觉导航中环境建模的研究,博士研究生学位论文,清华大学,1997,5.11张振武,丁冬花,THMR-V道路检测算法设计,微计算机信息,2005,21:115-117.12国防科大研制出第四代无人驾驶汽车,计算机自动测量与控制,2002,8:22.13Wang Rongben, Li Bin, Chu Jiangwei, Ji Suowen, A New Optimal Controller for Intelligent Vehicle Headway Distance, IEEE Intelligent Vehicle Symposium of IV2002, FRANCE, 2002.14M.Maurer, R.Behringer, et al., VaMoRs-P, An Advanced Platform for Visual Autonomous Road Vehicle Guidance, SPIE, 2352: 239-248.15J.D.Crisman, and C.E.Thorpe, “SCARF: A Color Vision System that Tracks Roads and Intersections,”IEEE Trams. On Robotics and Automation, 1993: 49-58.16F.Paetzole,U.Franke. Road Recognition in Urban EnvironmentJ. Image and Vision Computing,2000(18):377-387.17Aufrere R Chapuis R,Chausse F. A Fast and Robust Vision Based Following AlgorithmC. Proceedings of the IEEE Intelligent Vehicles Symposium,2000:192-197.18bd.Citroen C4 with a host of new technologies. Unique in the IndustryJ. ATZ autotechnology, 2005, 5(2):26-2819Chengfa Fan,Xiuqing Ye,Weikang Gu. KRUS:a Knowledge-based Road Scene Understanding SystemC.Proceedings of the Fourteenth International Conference on Pattern Recognition. Brisbane Australia,1998.20F. Jimenez, F. Aparicio, G. Estrada. Measurement uncertainty determination and curve-fitting algorithms for development of accurate digital maps for advanced driver assistance systemsfJ.Transportation research part (demerging technologies. 2009,17(3):225-239.三、基本方法归纳3.1图像滤波摄像头采集的路面信息图像是带有噪声。图像噪声来源有三个方面:一为光电、电磁转换过程中引入的人为噪声;二是小车行驶过程中,摄像头采集图像的不稳定性;三为自然起伏性噪声。所采集路面图像中噪声主要变现为尖峰噪声,这会对后续处理造成影响,必须首先滤除噪声。图像处理前需要对图像进行灰度化,一般为加权平均法,把彩色图像的三个分量按照不同的权值进行加权求平均值作为灰度值。fi,j=0.299Ri,j+0.587Gi,j+0.114B(i,j) (3-1)图像滤波去除噪声常用的方法有均值滤波和中值滤波。(3-2)均值滤波的基本原理是:选中图像中的一个小区域,求该区域内中心点的领域内的点的像素平均值,再把这一平均值赋予该中心点。设图像中某像素的灰度值为f(i,j),它的邻域S为N*N点的方形窗口,点集的总数为M,则平滑后的这点的灰度值为:fx,y=1M(i,j)Sf(i,j)领域平均法能够有效的抑制尖峰噪声,此方法简单,计算速度快。但此方法会造成图像细节一定程度的模糊,导致路径边缘信息有所损失。中值滤波,就是把以某点像素点(x,y)为中心的窗口内的所有像素的灰度值按从大到小的顺序排列,将中间值作为灰度值赋给该像素点。由于中值滤波的输出像素是由窗口图像中各像素的中间值决定的,因而中值滤波对极限像素值(与周围像素灰度值差别较大的像素的值)远不如均值滤波敏感,是一种非线性处理技术。中值滤波算法的具体步骤:1)将窗口在图像中漫游,并将窗口中心与图像中某个像素的位置重合;2)读取窗口中各像素的灰度值;3)将这些灰度值按照从小到大的顺序排列成一列;4)找出排在中间的一个值;5)将这个中间值赋给对应窗口中心位置的像素。3.2图像分割图像分割就是把图像分成各具特性的区域并提取感兴趣目标的技术和过程,这些区域互不交叠,且各区域的特性可以是相似的灰度、纹理或颜色等。两种常用的图像分割算法:基于阈值的图像分割和边界检测分割算法。沿边缘走向的灰度变化平缓,而垂直于边缘走向的灰度变化剧烈,利用梯度最大值提取边界是图像边缘检测算法常用的方式。在实际检测中,常常使用模板卷积的方法来做近似计算,这类算子主要包括 Roberts 算子、Sobel 算子、Canny算子、Prewitt 算子和 Laplacian 算子等;其中 Canny 边缘检测算法有效利用了高斯函数一阶微分的特性,使得边缘检测和噪声抑制取得了较好的平衡,具有较好的边缘检测效果和性能,是边缘检测中一种比较实用的算子。阈值图像分割法,就是利用一个或多个阈值,将该图像分成两类或更多。只有一个分割阈值的情况就是把图像二值化,凡是大于分割阈值的归属于目标类,小于等于分割阈值的为背景像素。可知,确定合适的分割阈值是阈值图像分割法的关键。选取阈值常用的方法有:直方图双峰法、最大熵法、OTSU法、矩量保持法、梯度统计法。(3-3)OTSU法是由日本人大津首先提出的,也称大津阈值法或最大类间方差法,该方法根据图像的一维直方图,以目标和背景的类间方差最大为阈值选取标准。OTSU算法的原理为:对于一幅图像,设当前景与背景的分割阈值为t时,前景点占图像比例为w0,均值为u0,背景点占图像比例为w1,均值为u1。则整个图像的均值为u=w0u0+w1*u1(3-4)建立目标函数为:gt=w0*u0-u2+w1*(u1-u)2g(t)就是当分割阈值为t时的类间方差表达式。OTSU算法使得g(t)取得全局最大值,当g(t)为最大时所对应的t称为最佳阈值。3.3形状检测Hough变换是图像处理中从图像识别几何形状的基本方法之一,寻找直线和圆的方法可以更好的减少噪声干扰。Hough变换的基本原理在于利用点与线的对偶性,将原始图像空间的给定曲线通过曲线表达形式变为参数空间的一个点。这样就把原始图像给定曲线的检测问题,转化为检测参数空间的峰值问题。也就是把检测整体特性转化为检测局部特性。原理为:(3-5)对于直角坐标参考系,一条线可以用下面的形式方程表达y=ax+b(3-6)a为斜率,b表示截距。将上面公式变形为b=-xa+y公式(3-5)表示另外一空间的直线,由a,b这些坐标点构成,x表示斜率,y表示截距。可看出,式(3-4)中表示的一点x,y对应式(3-5)中数条曲线,这些曲线必然有一个公共的交点,如下图所示,只要找到此点,直线的几何参数就能被确定。(a)图像空间 (b)参数空间图3-1 图像空间与参数空间(3-7)采用这种思想,就能将图像所在坐标系的线转变到参数坐标系的点,从而求解到几何量。当图像中某条线与水平轴垂直时,此方法失效。将原图像用极坐标描述。式(3-4)就变为:=xcos+ysin代表原点到某条线的垂直线段的长度,代表该垂直线与x轴正向构成的角度。原图像所在坐标系一点就对应极坐标系一正弦型的线,由若干个点组成的线,在换到另一坐标系时,必然同时存在着若干条正弦线,这些线由共同的交点。如下图所示,该点代表着直线的几何参数。Hough变换是应用点线的这种性质。(a)图像坐标系 (b)极坐标系图3-2 图像坐标系与极坐标系四、设计方法与实施方案4.1系统的设计4.1.1系统主要模块本系统主要研究移动机器人系统在单目视觉下的道路检测和控制其运行在道路中间、主要包括通过移动机器人的摄像机采集道路信息,并进行图像的处理和分析,进而提出一种移动机器人的控制策略,控制其行驶在道路中央。在运行过程中同时利用机器人车体的声呐阵列检测障碍物,并使其可以在遇到障碍物时停止运行。移动机器人运行到指定目标位置时可停止运行。图4-1 系统结构图课题系统共有三个模块,基于图像的道路检测、移动机器人的运行控制、和障碍物检测。下图为系统的功能模块图。图4-2 系统功能模块图 (1)图像采集,通过安装在移动机器人车体上的摄像头获取环境信息,传输到图像采集卡,进而PC机程序获取路面图像进行处理。(2)图像预处理,系统对采集的图像进行重采样,提取感兴趣区域(Range of Interest),以便减少图像处理时间,提高系统效率。然后对图像进行增强、去除噪声、二值化等处理使得图像中有用的信息更明显,保留所感兴趣的部分。 (3)路面检测,通过图像分割算法将图像分为路面和非路面两部分。(4)图像特征提取,选择合适的图像特征进行提取,进而得到图像中的道路边缘。(5)道路中线提取,通过检测出的路面部分计算路面左右边缘,求出中线。(6)预瞄点检测,根据摄像机采集的图像的延时以及机器人行驶的速度和加速度等信息,确定行驶前方一段距离的预瞄点,方便行驶决策。(7)行驶控制,根据图像特征判断机器人的在行驶过程中产生的偏航角度,对比道路中线,对机器人进行实时角度矫正与控制。(8)采集声呐信息,通过客户端激发声呐阵列,对行驶环境进行探测。(9)定位障碍物,根据采集的声呐信息,以及声波在空气中的传播速度,定位障碍物相对于机器人的距离。(10)行驶决策,根据障碍物距离机器人的距离,使机器人靠近障碍物时能够停止行驶。当在行驶过程中检测到指定目标点时,机器人可以停止运行。4.1.2系统开发的硬件和软件环境系统开发基于Pioneer3-AT移动机器人平台。其处理单元采用Intel 800MHz奔腾处理器,由日立公司的H8S微控制器单片机进行底层控制。其控制器处理机器人底层的细节问题,诸如保持平台的驱动速度,越过不平坦的地形,读传感器信号,如声呐,管理附件,如机械手臂。系统开发使用的硬件有:(1)PC机:通过串行口将PC计算机与机器人控制器连接,在PC计算机上运行上层的智能控制软件。(2)Pioneer3-AT配置有PTZ摄像系统(pan-Tilt-Zoom Color Camera),它包括: Canon VC-C50i通信摄像头,有一个二自由度云台,平移范围为-100100,倾斜范围为-3090;26倍光学变焦,12倍数码变焦;l/4英寸的CCD传感器。 Sensoray X11图像采集卡,最高帧率达30fps,最大显示分辨率为640480,最小显示分辨率为160l20。(3)车轮:Pioneer3-AT机器人为四轮结构,采用滑动导向驱动方式,可使用于室外。最大的平移速度为0.7米/秒,旋转速度为140/秒,回转半径为34厘米。最大可穿越间隙为15厘米,可穿越的地形为:沥青、地板、沙、污垢。(4)声呐:移动机器人车体上有声呐阵列,可以用于物体检测、距离检测和自动避障,定位及导航。前后声呐阵的布置可以为机器人提供360度无缝检测。(5)上位机系统开发的软件环境基于移动机器人自带的嵌入式系统ARCOS和机器人本体的操作平台以及客户端软件运行的Windows操作系统平台。ARCOS负责机器人底层控制和操作,获取传感器信息,摄像头、声纳测距仪等辅助设备。这些传感器的基本数据由ARCOS通过串行口每100ms往机器人本体的操作平台传送一次。运行在移动机器人本体系统上的服务器程序可获取机器人当前的状态信息,和客户端进行通信,包括状态信息的发送和控制命令的接受,解析并执行控制命令。所使用的软件有:(1) Microsoft Visual Studio2015:集成开发环境(2) OpenCV:计算机视觉开源库(3)ARIA:用于机器人控制的面向对象应用程序接口,可通过它访问移动机器人平台和传感器等。供C+编程使用的SDK(4)MobileSim:开源模拟器(5)MobileEyes:图形用户界面客户端的远程操作(6)Mapper3-Basic:为使用ARIA和MobileSim软件的制图工具(7)Sonarnl:提供基于声呐的近似定位和导航4.2基于图像的道路检测模块4.2.1图像采集在进行实验前,需要对所用的摄像机进行标定得到摄像机参数。要标定的参数分为内部参数和外部参数两部分,内部参数描述摄像机的内部光学和几何特性,包括图像的中心位置、焦距、镜头畸变等参数;外部参数描述了一个已知的世界坐标系到摄像机坐标系的位置和方向关系。标定后,可以采集到精确度较高的图像。Pioneer3-AT使用的Sensoray X11图像采集卡,最高帧率达30fps,最大显示分辨率为640480,最小显示分辨率为160l20。为了提高处理速度,对每一帧道路视频图像重采样,重采样后分辨率大小为320240。设置图像感兴趣区域为图像的下半部分,分辨率为320160。图4-3 图像重采样 图4-4 提取感兴趣区域(ROI)4.2.2图像预处理采集到的图像包含大量的无用颜色信息和随机噪声,需要对原始图像进行预处理,提高图像质量。图像预处理主要是对图像进行增强,突出道路边缘线信息,去除其他干扰因素,增强对图像的分析和识别能力,便于道路检测与跟踪,降低算法复杂度。主要包括图像灰度化和滤波去噪。采用均值滤波和中值滤波进行实验。图4-5 中值滤波和均值滤波实验表明,均值滤波模糊去噪效果较好但是对边缘的污染较大,中值滤波去噪效果虽稍逊于均值滤波,但对边缘起到较好的保护作用。为较好的滤除噪声且保留边缘信息,中值滤波时,首先要确定滤波窗口。滤波窗口过大,滤波效果好,但是对于图像细节的抑制也大,同时计算速度将变慢。考虑减少系统的计算负荷,提高实时性,采用如图所示的五值中值滤波窗口。图中黑点表示漫游窗口的中心点像素,白点表示参与中值滤波的像素点位置。图4-6 中值滤波窗口4.2.4基于图像分割的道路检测算法在该系统中,路径信息的获取是其关键技术。从视频图像中快速而准确的获取路径,并提取出路径相对于车体的位置信息,是路径识别策略的重点和难点。道路检测模块主要是通过安装在移动机器人车体上的单目摄像头获取环境信息,将采集回的图片传送至客户端,系统对图像进行预处理后,根据环境中道路的特点,将图像进行分割,提取感兴趣部分,方便机器人对行驶任务做出决策。以校园路面为例,一般道路没有明显的道路标志和车道线。但路面较为平坦,有明显的道路边缘信息,一般不会有严重的路面裂缝和泥污等。经过图像预处理后获得了道路的基本信息,为了更好地指导控制系统的设计,需要用一条直线或者曲线来描述引导线,从而达到识别引导线的目的。由于图像中具有明显的边缘信息,因此采用边缘检测算法即可快速地获得路径信息。图4-7 Canny算子和Sobel算子求图像边缘结果Canny算子采用双阈值的技巧,在得到一个较大的阈值后,将其应于处理之中,得到一个对应的结果。之后的下一步,把边缘轮廓连到一起。当到达线段的两端时,把满足另一个较小阈值的点构成的轮廓按照同样的做法,以使整个边缘闭合。故Canny算子分割图像效果较好。对预处理后的图像采用OTSU算法进行二值化处理,下图为实验结果,基于此算法有效的将图像分为路面和非路面两部分,将路面区域提取出来可以方便进行下一步处理和研究。图4-8 OTSU算法图像二值化处理结果4.2.5基于Hough变换的直线检测检测出道路信息后,图像中道路区域和非路面区域区分较为明显,可进一步利用图像分割方法提取中道路边缘直线,然后使用Hough变换检测道路两侧边缘。方便道路中线的计算。图4-9 Hough变换检测直线道路边缘4.3移动机器人的运动控制模块运动控制模块主要是根据检测出来的路面信息提取道路的中线,在行驶过程中,摄像机总是不断地对前方的道路环境信息进行预瞄,然后,经图像分析理解道路环境信息,形成移动机器人要行驶的理想路径。而摄像机获取道路图像到传输到图像采集卡,再到传输到系统的图像处理模块存在一定的延时,该系统是一个典型的时延系统,而预瞄控制动作具有明显的预见性。4.3.1道路中线的提取经过道路检测,获得了移动机器人所在道路左右边界线,这两条左右车道线将道路区域从图形中区分出来。假设左右两道路边缘的直线模型为:y=klx+bl ,左车道线y=krx+br , 右车道线(4-1)由道路边缘信息可以方便地得到道路的中线,即道路区域对称轴为x1,假设开始行驶时,机器人中心线与道路平行。假设当前像平面对称轴为x0,当机器人行驶在道路中心时对称轴x0与x1重合,如果机器人行驶发生偏移时,x0与x1之间必然有较大的误差。通过前面几个部分的研究,左右两条道路边缘线在图像中的位置已经检测出来,可以计算出像平面对称轴x0距离左右边缘的距离dl和dr。可以设置一个安全距离阈值H=0.4W(W为图像的宽度),当mindr,dlH时,表明机器人处于正常行驶状态;否则,如果dlH,则表明机器人向道路左侧边缘偏离,若drH,则表明机器人向道路右侧边缘偏离。根据偏离具体情况,对机器人做出相应的调整。图4-10 机器人偏离示意图 图4-11 像平面中线提取4.3.2预瞄点检测移动机器人计划采用预瞄控制策略,即以小车前方中线上的一段路径为参照进行控制。由于摄像机采集图像到发送到客户端有一定的延时,故当采集到一帧图像时,需要在引导线上选取一个点作为下一步机器人所要到达的点。一般移动机器人传感器的基本数据由ARCOS通过串行口每100ms往机器人本体的Windows操作平台传送一次,传送到客户端程序以及图像处理需要一定的时间,假设时间之和为t,而机器人的运行速度为v,则当前图像的预瞄点距离图像下边缘即摄像机所在位置的距离为: d=tv (4-2)则在道路中线上距离图像下边缘距离为d的点即为移动机器人下一步所要行驶到的目标点。4.3.3行驶控制 移动机器人的行驶控制主要包括控制移动机器人沿着中线行驶、当出现偏航时能够矫正运行方向、到达目标点停止运行三部分。由本节上述可知,机器人正常运行状态下,则根据道路中线上选取的预瞄点进行行驶。当出现角度偏差时根据图像采集情况判断其偏向并及时调整。目标点的设定采取固定的标志物。通过获

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论