




已阅读5页,还剩43页未读, 继续免费阅读
版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
基于摄像机的机器人视觉定位的研究摘要自主式移动机器人(Autonomous Mobile Robot)的一个非常重要的功能是自主确定自己在环境中的位置(定位)。机器人首先要在环境中可以确定自己与周围环境的位置关系,然后根据任务做出正确的路径选择和决策。因此定位技术对机器人来说,实现自主功能是必不可少的。定位也就是说机器人利用地图信息机器人当前状态以及传感器等输入信息,经过一定的处理,估计机器人的当前位姿。目前,室内自主式移动机器人大多采用碰撞式传感器定位。通过传感器得到的信息自主地实现准确的定位是当前移动机器人研究中的一个重要研究主题。本研究的机器人是以摄像头为传感器,通过图像处理,提取环境因素,测量自己与各因素之间的距离和水平角度。在视觉图像处理过程中,图像分析、选择合适的理论方法是最重要的一步。首先利用已知条件对捕获图像进行缩放和剪裁,结合灰度变换、图像基本运算和数学形态学操作进行预处理,然后智能选取阈值分割、运用数学形态学方法对图像进行分割,同时对连通的区域进行标注、获取特征信息,运用模式识别知识对环境因素图像进行智能训练、识别、定位以提取所需的测距参数。本文运用MATLAB2011开发平台,采用IPT函数,以提高图像处理的效率与质量;且把通过CCD反转透视变换理论得出的数学模型来测量距离,使视觉测距过程时延更小、反应更迅速。通过在有复杂背景的实际图像的实验验证,本研究所提出的方法和技术具有很好的实用价值,可为现代机器人的视觉信息处理提供重要参考。关键词:摄像头;定位;图像处理;测量距离SummaryAutonomous mobile robotisavery important functionistoindependently determinetheir ownpositionin the environment.Must firstrobotin the environmentcan determinethe locationwiththesurrounding environment,accordingtothetaskto makethe correct pathchoices and decisions.Positioning technologyforthe robotto achieveautonomyis essential.Positioningmap informationthat isrobot,therobotthe current stateand sensorinput,aftersomeprocessing, it is estimated thatthe currentposition and orientationoftherobot.At present, theindoorautonomousmobile robotmostofthecollisionsensorpositioning.Sensorinformationautonomouslytoachieveaccuratepositioningisan important researchtopicinmobilerobot research.In this study,the robotisbasedoncamerasensors,through image processingtoextracttheenvironmental factors,measuringthedistancebetweenthemselves and thevarious factorsandthehorizontal angle.Visual imageprocessing, image analysis, select theappropriatetheoreticalmethodis the most importantstep.First of alltheknown conditionson thecaptured imageto zoom inandcut, combined withthegray-scale transformation,imagecomputing andmathematical morphologyoperationspretreatment,and then intelligentlyselect the thresholdsegmentation,image segmentationusingmathematical morphology, whileon theconnectivityregionallabel,getfeature information,theuse oftheknowledgeofpattern recognitiontosmarttraining,environmental factors,imagerecognition,rangingparametersto extractthe desiredpositioning.In this paper,the IPTfunctiontouseMATLAB2011development platform,in order to improvetheefficiency and qualityoftheimage processing;andthemathematical modelderivedbytheCCDreverseperspectivetransformtheoryto measure distanceandvisualranging processdelaysmaller, more responsive.Byexperimentalvalidationinreal imageswithcomplexbackground,methods and techniquesproposed in this studyhaspracticalvalue,canprovide an importantreferenceforthemodernrobotvisual information processing.Keywords:camera;positioning;image processing;measuringthedistance1绪论1.1背景自主移动机器人是一种能够主动的从一个地点移动到自己需要的地点,来完成自己要完成的任务。因此,自主移动机器人导航技术需要回答3个问题1:“我在哪里?”,“我要去哪里?”和“如何才能到达那里?”。而机器人的自定位就是要解决“我在哪里”的问题。自定位是机器人在通过地图导航(例如GPS、差分GPS等传感器)没有办法直接得到机器人精确的位置信息时,机器人如何根据其自身传感器获得的环境感知信息估计自己在环境中的位置和方向。因此,机器人自定位是移动机器人实现导航、运动规划等自主能力的基础。视觉系统相对于其他的机器人导航定位用传感器而言,能够提供最丰富的感知信息,同时也是一种被动的传感器,也具有最接近人类的环境感知方式。科学研究和统计表明:人类从外界获得的信息大约有75%来自视觉系统2。本文就选择以摄像机作为机器人的视觉传感器有以下原因的:1)成熟的硬件条件一个真正机器视觉必须具备实时性、鲁棒性、实用性这三特点。实时性是指系统的数据处理必须与机器人的行驶同步进行。鲁棒性是指机器人对不同的环境,如室内室外等均具有良好的适应性。实用性是指要求机器人在体积与成本等方面能够为用户所接受。要使机器人视觉导航系统实际应用成为可能,必须首先解决计算机及摄像机CCD的体积问题。另外,CCD在低廉价格的前提下,图像采集速度及图像前处理能力要强。随着计算机及电子技术行业的迅猛发展,在硬件条件上,已经成为可能。2)良好的环保性基于视觉图像处理技术的测距方法属于被动测距方式,与其它方式相比,其信息的采集是以非侵犯的方式进行,不会向外界环境传播信号,以造成干扰,同时也能很好的避免外界空间中各类非可视物质的干扰。符合当前世界发展所重点倡导的入与自然和谐相处的根本原则。3)低消耗、高效率实用特点在基于数字图像处理技术的视觉测距系统中,使用一个CCD的系统称为单目摄像系统,而同时使用两个CCD对同一景物拍摄,再运用计算机分析两幅图像,以确定物体的三维状况的系统称为双目摄像系统。双目摄像系统测量精度高,但计算速度较慢,成本较大。单目摄像系统的算法简洁,运算快速,成本较低。综合考虑以单目摄像系统为宜。1.2基于视觉的自主机器人定位分类根据是否具有初始定位信息,机器人视觉自定位又可分为全局(Global)自定位6&7和局部(Local)自定位8(或者定位跟踪)。当机器人没有任何初始或者先验的定位信息时即为前者。当机器人具有初始的定位值或者先验的定位信息时即为局部自定位或者定位跟踪问题。本文研究的是局部自定位。根据所使用的视觉传感器的不同,机器人视觉自定位又可分为基于单目透视成像摄像机、双目立体视觉、三目立体视觉、全向视觉、全向立体视觉等视觉系统的机器人自定位。本文研究的是基于单目摄像机的视觉系统。根据应用环境的不同,机器人视觉自定位可分为室内结构化环境如RoboCup、FIRA足球机器人比赛环境下的定位、一般室内环境如办公室环境下的定位7和室外环境如一般的市区环境下的定位等。本文主要研究的是在一般室内环境下的自主机器人视觉定位。从定位算法具体的信息处理手段或者计算方法上看,机器人视觉自定位包括基于图像检索思想的匹配定位、基于几何三角关系的三角定位、将机器人自定位问题看成是一个优化问题使用优化算法求解3,以及现在最常用的处理执行、感知不确定性的基于概率的Bayes滤波框架方法如Markov定位、Kalman滤波定位、Monte Carlo定位(粒子滤波)、聚焦定位、散焦定位等,当然还有那些结合使用这些手段的方法。本文选择的是基于几何三角关系的三角定位算法,主要因为聚焦定位,散焦定位这类模糊算法和Markov定位、Kalman滤波定位、Monte Carlo定位(粒子滤波)等滤波定位,这些算法都需要经行数次的傅立叶变换,他们的计算量都很大,对系统的负荷很大,而且都很难做到比较好的实时性。所以本文选择了算法比较简单的几何三角定位,但是由于算法有比较多的约束,所以对于摄像机的状态要有一定的要求,如相机高度,相机俯角等要有前提。而且对场景也有一定的要求。本文研究的机器人主要是室内作业的。1.3本研究技术路线在参阅国内外视觉测距系统研究现状的基础上,本文项研究内容,最终实现机器人前方物件距离测算的全过程。1)阅读文献资料,了解该领域的发展状况;2)熟练掌握MATLAB2011图像处理工具箱及MATLAB中各种方法的比较、验证和确定提供实践的平台;3)对各种图像预处理的方法进行试验比较,选取最有效的预处理方法,降低噪声干扰,提高图像质量,为下一步目标物的检测和定位提供有利的条件;4)采用适当的图像分割技术,提取目标物件的特征方法,将目标物件在图像中定位,以便更为精确地进行下一步的测距计算;5)根据几何变换理论及方法,建立针对单目摄像系统的世界坐标模型,并利用反转透视方法得出机器人人与物件之间距离的计算公式;6)运用MATLAB2011平台完成上述的图像处理全过程,比实现对环境因素距离的测算,最终给出较为精准的测算结果;7)设计实验并在实际复杂环境中组织测距试验,对实验数据进行细致地分析,检验本研究的理论方法和实现方法,并针对性地加以改进;8)确定最终的理论和实现方法,完成本次研究,并对下一步的研究方向提出建议。本研究的技术路线如图11所示:图11技术路线示意图2数字图像基本理论2.1数字图像的基本概念图像是能够以各种形式出现的,如可视的和不可视的、抽象的和实际的、适于计算机处理的和不适于计算机处理的。就其本质来说,可以将图像分为以下两大类:一类是模拟图像,包括光学图像、照相图像等。它的处理速度快,单精度和灵活性差,但不易于查找和判断。另一类是将连续的模拟图像经过离散化处理后变成计算机能够识别的点阵图像,称为数字图像。严格的数字图像是一个经过等距离矩形栅格采样,对幅度进行等间隔量化的二维函数,因此,数字图像实际上就是被量化的二维采样数组。一般的图像都是模拟图像,即图像上的信息是连续变化的模拟量。对于模拟图像只能用模拟处理方法进行处理,而计算机不能接受和处理这种模拟信号,只有将图像在空间和灰度上都离散化为数字信号后,或者说将模拟图像变换为数字图像后方能进行接受和处理。假设幅图像被定义为一个二维函数f(x,Y),其中x和Y是空间(平面)坐标,厂在任何点(x,力处的振幅称为图像在该点的亮度。灰度是用来表示黑白图像亮度的一个术语,而彩色图像是由单个二维图像组合形成的。例如,在RGB彩色系统中,一幅彩色图像是由三幅独立的分量图像(红、绿、蓝)组成的。图像关于X和Y坐标以及振幅连续,要将这样的一幅图像转换成数字形式,就要通过采样和量化两步完成,即要求数字化坐标和振幅。2.2图像数字化2.2.1采集为了用计算机来处理,图像必须用适当的离散数据结构来表达(例如矩阵)。而将图像在空间上离散化就称为采样,也就是用空间上部分点的灰度值代表图像。事实上,采样就是要决定用多少个点来描述一幅图像,采样的结果就是通常所说的图像的分辨率。由于图像是一种两维分布的信息,为了对它进行采样操作,需要先将两维信息变为一维信号,再对一维信号完成采样。具体做法是,先沿垂直方向按一定间隔从上到下顺序地沿水平方向直线扫描,取出各水平线上灰度值的一维扫描。而后再对一维扫描线信号按一定间隔采样得到离散信号,即先沿垂直方向采样,再沿水平方向采样,两个步骤完成采样操作。对于运动图像(即时间域上的连续图像),需先在时间轴上采样,再沿垂直方向采样,最后沿水平方向采样由这三个步骤完成。摄像机获取的图像是平面上两个坐标的连续函数f(x,y),图像数字化将f(x,y)采样为一个M行N列的矩阵。这就表示数字化后的图像每行(即横向)像素为M个,每列(即纵向)像素为N个,即图像大小为MN个像素。图像的采样点存在这样的关系:x=jx,Y=ky,j=1,M,k=1,N。两个相邻的采样点在x轴上相差缸,在y轴上相差缈,距离血和缈就是采样间隔,如图21所示。在进行采样时,采样间隔的选取是一个非常重要的问题,它决定了采样后图像的质量,即忠实于原图像的程度。采样间隔的大小选取要依据原图像中包含的细微浓淡变化来决定。一般图像中需要关注的细节越多,采样间隔就越小,采样点越多,对计算机的负担也就越重。这些在平面上排列的采样点,它们之间的几何关系称为栅格。因此,数字图像是一个数据结构,通常是矩阵。在实践中,栅格一般是方形或者正六边形。栅格中一个无限小的采样点对应于数字化图像中的一个像素,全体像素覆盖了整个图像。从图像分析的角度看,像素是不能再分割的一个单位。我们通常用一个“点”来代指一个像素。图21 图像采样示意图2.2.2量化图像经过采样后,在时间和空间上离散化为像素。但采样所得像素值(即灰度值) 仍是连续量。把采样后所得各像素的灰度值从模拟量到离散量的转换称为图像灰度的量化。量化的结果是图像容纳的所有颜色数据。为了使入能够觉察出图像的细微变化,量化级别要足够高。大部分数字图像处理中都采用G个等间隔的量化方式。如果用b位来表示像素亮度的数值,那么亮度阶就是G=2b。数值范围越大,表示图像可以拥有更多的颜色,自然可以产生更为细致的图像效果,但相应也必须占用更多的存储空间。通常采用每个像素8位的表示方式,也有一些系统使用6位或4位。对于二值图像,即或黑或白,可以用1位来表示像素。若一幅数字图像的量化灰度级数为G=28=256级,则像素灰度取值范围一般是0-255的整数,由于用8bit就能表示灰度图像像素的灰度值,因此常称8bit量化。从视觉效果来看,采用大于或等于6bit量化的灰度图像时,就能令人满意。2.3数字图像处理的基本过程不管图像处理是何种目的,都需要用计算机图像处理系统对图像数据进行输入、加工和输出,因此数字图像处理研究的内容主要有以下7个过程。1)图像的获取和表示该过程主要是把模拟图像信号转化为计算机所能接受的数字形式,以及把数字图像显示和表现出来。这一过程主要包括摄取图像、光电转换及数字化等几个步骤。2)图像压缩数字图像的特点之一是数据量庞大。尽管现在有大容量的存贮器,但仍不能满足对图像数据(尤其动态图像、高分辨率图像)处理的需要,因此在实际应用中图像压缩是必需的。如果数据不压缩,则存储和传输中就需要占很大的容量,因而增加了成本。图像压缩的目的就是压缩数据量。3)图像预处理为了研究图像内容的识别,首先要对获得的图像信息进行预处理,滤去干扰、噪声,当图像信息微弱无法辨识时,还需要对图像进行增强处理、几何调整、颜色校正等,以便人、机分析。4)图像分割把图像分成区域的过程就是图像分割。图像中通常包含多个对象,为了从图像中找到需要识别的物体,必须按照一定的规则将图像分割成区域,使每个区域代表被成像的一个物体(或部分),这也就定位和分离出不同的待识别物体。这一过程输入的是整幅图像,输出的是像元图像。5)图像分析图像处理应用的目标几乎均涉及到图像分析。在图像中待识别物体被分割的基础上,提取需要的特征,并对某些参数进行计算、测量、分类,以利于计算机根据测量结果进行图像分类、识别和理解。这一过程输入的是庞大的信息图像,输出的则是少量的特征信息,而且这些特征信息仅代表物体,无法还原回原物体。6)图像分类根据提取的特征值,利用模式识别的方法进行分类,确定类别名称,以便对图像的重要信息得到理解和解释。这一过程输入的是特征信息,输出的是类别名称。整个图像识别的主要过程如图23所示。图22图像识别的四个主要过程本章主要介绍了数字图像的基本理论,包括采样、量化和常用的图像处理技术以及图像识别过程等,为后续章节提供理论基础。3机器人视觉系统的图像预处理单目视觉系统完成图像采集后,需要对获取的图像进行各种处理与识别。视觉系统在图像的生成、采样、量化、传输、变换等过程中,总要造成图像的某些降质。例如在摄像机采集图像时,摄像机光学系统的失真、相对运动、大气流动等都会使图像模糊。在传输过程中,由于噪声污染,图像质量会有所下降。另外,由于视觉系统与道路环境之间存在相对运动,输出图像质量也会降低,常产生运动模糊等现象。因此,必须对这些降质的图像进行改善处理。为了改善视觉系统图像质量,就需要突出道路图像中的有用信息,并尽可能消除其它环境信息的干扰,这就需要对原始图像进行图像的预处理操作。从上面的阐述中,可以看出,图像的预处理主要包括图像增强、图像几何变换、图像基本运算、形态学处理等操作。将按照本文研究所涉及的内容进行分析。3.1图像几何变换由于用来表示图像的数据量通常很大,图像处理也往往具有很大难度。在技术上,图像分辨率在不断增加,谱段数量也在增加,因而需要限制由此带来的数据量。图像分辨率(Image Resolution)指图像中储存的信息量。分辨率又有多种衡量法,典型的是以每英寸像素的数量来衡量。图像分辨率和图像尺寸一起决定文件的大小及输出质量。图像分辨率以比例关系影响着文件的大小,即文件大小与其图像分辨率的平方成正比。图像分辨率越大,图像文件所占用的磁盘空间也就越大,对图像进行操作所需时间也就越多。按照一定比例缩放图像时会使分辨率下降。图像分辨率降低后会删除图像中的一些原始信息,但摄取的图像分辨率高,运算时间较长;图像压缩的方法减少的是像素间的相关冗余信息量,处理后不会降低分辨率,是一种无损失压缩方法,但是它的操作复杂、时间消耗大。图像缩放既要考虑计算精确性也要考虑运算速度,因此本文决定采用空间几何变换原理,对采集的图像首先进行缩放处理。空间几何变换有很多种形式。假设有一幅定义在(u,v)坐标系上的图像f经过几何变换后产生了定义在(x,y)坐标系上的图像g。这个变换可以表示为(x,y)=T(u,v),其中T为变换函数,一般都采用矩阵的形式。根据不同变换的需要,设计不同的矩阵T。 本文中采用的图像缩放矩阵,可以设计成如下形式,如式(31)所示: x,y,1=ru000rv0001 (31)式中,ru, rv分别为沿着u,v坐标轴的缩放比例,当它们取不同数值时,产生不同的缩放效果。本研究获取的图像是20481536。包含的信息量很大,计算耗费很多时间。经过对比各种缩放比例所得图像的处理时间和处理效果,决定将其缩放至680480像素。3.2图像增强图像增强是对图像质量在一般意义上的改善。当无法知道图像退化有关的定量信息时,可以使用图像增强技术较为主观地改善图像的质量。所以,图像增强技术是用于改善图像视感质量所采取的一种方法。因为增强技术并非是针对某种退化所采取的方法,所以很难预测哪一种特定技术是最好的,只能通过试验和分析误差来选择一种合适的方第三章单目视觉系统图像坝处理法。有时可能需要彻底改变图像的视觉效果,以便突出重要特征的可观察性,使人或计算机更易观察或检测。在这种情况下,可以把增强理解为增强重要部分特征的可检测性,而非改善视感质量。图像增强的原理是指按需要对图像进行适当的变换,突出某些有用的信息,去掉或削弱无用的信息,如改变图像的对比度、去除噪声或增强边缘的处理等。图像增强的一些基本方法主要有:图像变换、直方图变换、灰度变换、图像平滑和图像锐化等。本文根据获取图像资料的情况,采用灰度变换方法进行图像增强处理。1)灰度变换一般成像系统只具有一定的亮度范围,亮度的最大值与最小值之比称为对比度。由于形成图像的系统亮度有限,常出现对比不足的问题,使人眼观看图像时视觉效果很差。通过灰度变换可以改善视觉效果。灰度变换又可分为以下三种:线性变换、分段线性变换和非线性变换。根据实际情况,本文适于采用线性灰度变换的方法。在曝光不足或过度的情况下,图像灰度可能会局限在很小的范围内。这时人们看到的将是一个模糊不清、似乎没有灰度层次的图像,用一线性单值函数,对图像内的每一个像素作线性扩展,将有效的改善图像的视觉效果。令原图像f(m,n)的灰度范围为a,b,线性变换后,图像g(m,n)的范围为c,d,如图31所示。g(m,n)和f(m,n)之间的变换关系如式(32)所示:G(m,n)=d-cb-af-a+c (32)从灰度直方图分析,由于d-c大于b-a,所以对离散图像来说,尽管变换前后像素的个数不变,但是不同像素之间的灰度差变大,对比度加大,图像质量优于变换前。对于连续图像,如果背景与目标物的灰度之差很小,在a,b区间内量化时可能进入同一灰度级内而不能分辨。如果线性变换时使IdcI=Gb一口I,G2,则量化时,f(m,n)变换后在c,d区间内就可以取GN个不同的灰度值,是f(m,n)在a,b区间内所取的灰度级个数,人眼原本不能检测的目标用增强手段也可以显示出来。若图像中大部分像素的灰度级在a,b范围内,少部分像素分布在小于a大于b的区间内,如图32所示。此时可用式(33)作变换。G(m,n)=c fm,nac+f-ac-db-a afm,nbd fm,nb (3.3)这种两端“截取式”的变换使小于灰度级a和大于等于扶度级b的像素强行压缩为c和d,将会造成-4,部分信息丢失。但在实际应用中,如分析道路状况时,在预处理中去掉诸如天空部分的信息,既可减少运算量,又可提高分析精度。2)在本研究中的应用直接获取的原图像,从视觉上看,背景部分亮度很高,与地面景物对比度大,且占据了较多的空间:从扶度直方图显示的结果看,某个阐值之上的灰度值出现频率很高,且分布相对集中。根据获取图像所表现出的特点,本文选用截取式线性变换的方法,对图像进行扶度增强的操作。变换的效果如图33所示。图3.3 图像对比度增强变换3.3其他图像操作运算3.3.1灰度图像形态学处理1)基本理论1822灰度图像在实际处理中是较常见的数字图像形式,灰度形态学就是形态学算子作用于二维欧式空间的情况,是二值图像形态学处理的扩展。在灰度图像形态学处理中常用f(x,y)和b(x,y)表示输入图像与结构元素,此时f(x,y)和b(x,y)均是数字图像的函数。在灰度形态学处理中,(x,y)表示图像元素,f(x,y)表示对应于点(x,y)的灰度级。顶帽变换就是一种典型的灰度图像形态学处理,它是从灰度图像中将开运算后获得的图像减去的操作。顶帽变换也是一种简单的对灰度图像进行物体分割的工具,可以使待处理物体在亮度上能够与背景分开,另外,还能使背景的灰度变得不均匀。若要从较暗(或相反的,较亮)且变化平缓的背景中提取较亮(暗)的物体,则顶帽变换是一个很好的方法。那些与结构元素不符的部分,通过开运算被去掉,再用原始图像减去开运算图像,被去掉的部分就清楚的显现出来了。实际的分割可以通过阈值化操作来实现。对于这些概念理解,可以从下面给出的一个一维例子中清楚形象地看到。如图34所示。若图像是一个帽子,且结构元素比帽子中的孔要大,则变换将只提取帽顶部分。图34顶帽变换从不均匀背景中提取亮物体示意图2)本研究中的运用由于物件与周围环境在灰度特征上一定的差异,因此,选取大小适当的正方形作为结构元素,用顶帽变换的方法对已经灰度变换的图像进行变换,就可以达到将物件突出的效果。同时,采用同样的结构元素,进行底帽变换。这两者结合产生的效果会比采用顶帽变换图像和原图像的效果好。处理前后的效果如图3.5和图3.6所示。3.3.2图像基本运算1)基本理论2)本研究中的运用经过上一节的顶帽变换和底帽变换之后所得到的图像,分别体现了原始图像中的灰度峰值和灰度谷值。从处理后的图像中可以看出,对于原图像中物件区域相邻灰度值变化不大的部分,在处理后的顶帽变换和底帽变换的两幅图中表现出的差异很小,即灰度值差异很小;而对于灰度值变化很大的部分,尤其是边缘部分,在顶帽变换和底变换两幅图中表现出明显的差异,即灰度值差异很大。基于这样的机会,若对顶帽变换和底帽变换这两幅图像作进一步处理,就可以更好的使物件从背景中凸现出来。因为这样,研究决定采用数字图像处理中一种常用而简单的处理手法代数运算,对这两幅图像进行代数运算。本研究先将与原图像与顶帽变换图像相加,再将结果与底帽变换图像作减法运算,这样就起到了增强图像的效果。重复操作可以使效果更好,实际效果如图3.7(a)(b)(c)(d)所示。4环境因素检测与定位4.1图像分割图像分割是把图像分割成若干个具有独特性质的区域并提取出重要目标的技术和过程。在对图像的研究和应用中,往往仅对图像的某些部分关注(目标或背景),一般对应于图像中具有独特性质的区域。为了分析和识别目标,需要将它们分割并提取出来。图像分割是由图像处理转到图像分析的关键。一方面,它是目标图像表达的基础,对特征测量有重要的影响;另一方面,图像分割和分割的目标表达、特征提取和参数测量等将原始图像转化为数学表达式,使得利用计算机能够进行图像分析和理解。图像分割算法的研究一直受到人们的高度重视,到目前为止,提出的分割算法已经多达上千种,将它们分类的方法也有很多种,本文采用阈值分割方法。本研究选用的是阀值分割方法,这方法是根据自定的灰度阀值将图像进行分割,为了下一步的计算,一般是选单阀值分割,因为分割出来的是二值化图像。其分割方法为:一原始图像f(x,y)取单个灰度阀值T来分割得到的是公式(4.1):G(x,y)=1 fx,yT0 f(x,y)T (4.1)本研究根据公式(4.1)处理所得到的如图4.1和4.2所示。4.2环境因素的提取与定位4.2.1提取物件由于图像经过分割,分割出很多块区域。由于环境的光线的影响,会出现很多不是你想要的区域。如图4.3所示。也有你想要的区域,因为环境复杂应该到这区域不连通。如图4.4所示。 图4.3不想要区域 图4.4 想要区域 所以我首先将分割出来的图像进行腐蚀开运算和膨胀闭运算。如图4.5和图4.6所示。可以看到很多不是你想要的小区域不见了,很多你想要的区域连通了。重复这操作效果更好。由于环境的复杂度很大,所以就算经过开闭运算后,还是有很多区域不是你想要的。但是经过观察这些不是我想要的区域大小都是不大的。所以经过区域面积的对比,如图4.7所示,我选出一个区域面积阀值,我只提取面积比阀值大的区域。这就基本得到都是我想要的区域。如图4.8所示。图4.8 连通区域提取后得到的物件图4.2.2物件定位这个定位跟机器人自定位是不一样的,该节的定位是确定图像中所提取出来的物件在图像中的横坐标和纵坐标。而且是要选出物件与地面接触的点,且选出用来计算物件距离的点的坐标。这首先要将提取出来的物件经行区域填充。取出在图像x=中点的所有y值的最大值。如图4.9所示。填充,对于一个区域,如果它是一个封闭的环形形式(内部包含一块单独隔离处的孔洞),就可以用填充操作,将内部的孔洞覆盖。这个孔洞是一个背景像素的集合。具体方法是在一幅输入图像(通常是二值图像)的背景像素上从某个指定的点开始,将背景像素重新设置为1。图4.9是从环境中提取出来的最终图像,从这最终图像所获得的坐标,将是物件距离的一个重要参数。5物件测距的模型5.1 CCD成像原理本研究的图像是由CCD所拍摄回来的图像,这种图像是二维的亮度图像,而现实世界是三维的,所以本研究的图像就是现实世界的二维映射,然而CCD镜头可以看成是一块凸透镜,根据凸透镜的原理,所有经过凸透镜中心的光线都是不会变向的,即都是直线传播的,这种几何关系可以看成是小孔成像模型,这是透视模型的一种。所谓小孔成像就是,将一个盒子一侧扎一个小孔,另一侧改成一块半透明板。如果将针孔对准点燃的蜡烛,则在半透明板上看到颠倒的蜡烛图像,这就是小孔成像的现象。假设小孔是一个点,那么只有唯一的一条光线穿过三个点:成像板平面上的一个点、小针孔以及场景中的某个点。5.2 坐标系机器人的自主定位,到底是怎样定位?所以这就需要机器人有自己的世界坐标系。拍到的图像就是图像坐标系,机器人摄像机的位姿就是摄像机的坐标系。如图5.1所示,在图像上定义二维直角坐标系xc、yc,每一个像素的坐标分别是该像素在图像中的列和行。摄像机坐标系的Z轴与图像平面垂直,XY平面与图像平面平行。由于摄像机可以放置在任何位置,所以我们需要建立一个基准坐标系来描述摄像机的位置,并用它描述环境中任何物体的位置,该坐标系称为世界坐标系,用x、y、z来表示。图像平面被相对于x y平面反折过来,因为CCD拍出来的是小孔所成图像的镜像图像。x,y,z的值是世界坐标系中P点的坐标,设l等于针孔到图像平面的距离。图5.1 小孔成像模型5.2 建立机器人测距模型由于摄像机采集图像的过程是从三维欧拉空间到二维欧拉空间的几何变换过程,如果用K表示三维的现实空间,而用T表示图像空间,则图像采集过程是从K到T的过程。测距过程可以当作这一过程的逆过程。机器人测量可以认为是利用图像空间T=u,v中的数据,在一定的先验条件下计算现实空间K=x,y,z)中的一个平面S=(x,y,0)T上的数据的过程。在分析图像空间中的数据前,首先要获得采集图像的条件以及对场景图像的假设性描述,如图52所示。包括摄像机的位置,由在三维现实空间中的坐标l,d,h表示;视图方向由摄像机中心轴与标准轴的夹角r和o来表示;摄像机的孔径张角为2a;摄像机的清晰度为m xn。以上参数均可通过测量或摄像机本身参数获得。图5.2 现实坐标与图像坐标如图5.3 所示,可以通过摄像机的视觉盲距来计算出镜头与图像的距离,可以通过CCD感光器的大小知道图像的大小,如CCD的尺寸是1/1.8英寸,该尺寸就好像电视机屏幕的尺寸一样是对角线的长度,通过单位转换得到CCD对角线是14.11mm。又因为知道CCD的比例是4:3,根据勾股定理可以知道长:宽:对角线是4:3:5,就知道长是11.29mm,宽是8.17mm。如此就能算出图像的大小。再根据相似三角形求出镜头与图像的距离d。根据上面的数据就可以根据实际图像中分割出来的物件的坐标算出角度,也就可以算出物件的实际距离L。由图5.3可以看出公式(5.1)L=htan() (5.1)当镜头与水平有夹角时,且夹角为。距离就是公式(5.2)L=htan(+) (5.2) 图5.3 摄像机测距模型图像分割出来的物件的坐标高度就可以求出距离的,但是表示位置还是不够的,所以还应该求出物件在机器人的什么方向,就是与机器人正前方的夹角,如图5.4所示。其实将物件在图像坐标系中的X坐标就可以求出夹角了。图5.4 物件方向图6 MATLAB试验程序实现6.1 MATLAB程序在MATLAB里面主要用到其中的Image Processing Toolbox (简称IPT)中的图像处理函数。如表6.1所示。 表6.1 IPT函数6.2 试验程序程序界面如图6.1,试验过程图6.2,图6.3,图6.4所示。图6.1 程序初始化图6.2 程序界面图6.2的实验数据如表6.2所示物件实际距离实验数据角度误差%处理时间架子195无法测量左21.53度被遮挡0.764皮箱108105.478左15.25度2.340.764凳子138136.86左0.3度0.830.764桌子103101.595右16.36度1.360.764表6.2 图6.2的实验数据图6.3实验过程图图6.3的实验数据如表6.3所示物件实际距离实验数据角度误差%处理时间架子220无法测量左18.67度被遮挡0.717皮箱118112.653左15.04度4.530.717凳子158153.333左1.72度2.950.717桌子123122.667右17.14度0.270.717表6.3 图6.3的实验数据 图6.4试验过程图图6.4的实验数据如表6.4所示物件实际距离实验数据角度误差%处理时间架子194192.558左16.63度0.740.702凳子9590左1.12度5.260.702桌子9592.514右17.72度2.260.702表6.4 图6.4的实验数据6.3试验分析与结论由上面试验数据的误差一项可以看出本研究算法的距离精确度还是不错的。试验时候,由于图6.3与图6.4的时候是只有移动过凳子跟皮箱,所以由角度的对比也可以看出本研究算法的角度精准度也是不错的。而且处理时间都只是0.7秒,这可能是图像的大小有关系,如果图像再取小一点,可能速度更快。结论,实验数据表明了本研究的方法是既简捷又有效的,也具有可操作性,能够通过一系列操作较准确的获得环境中物件的距离,是一种可行的自定位方法。7结论与建议7.1结论本文根据数字图像处理基本理论和方法,提出了一种基于单目视觉的机器人自定位技术。充分利用机器人自身的几何特性,对捕获的图像选择恰当的预处理、图像分割、模式识别技术,并利用单目透视变换理论建立测距模型,通过MATLAB2011平台,最终获得以下结论:1)依据数字图像几何仿射变换理论,对图像进行缩放,减小图像信息量;2)采用灰度变换对增强图像中突出区域,且运用数学形态学知识对图像进行预处理,有效地提高了图像的质量。 3)使用灰度阈值分割技术对图像做初级分割,用数学形态学的膨胀、腐蚀等操作从分割图像中去除环境中与物件不相关的干扰信息,提取属于物件图像的特征信息,对物件快速定位起到主要作用。4)根据连通检测技术对物件进行检测和定位,从而将物件图像从原图像中截取出来;对截取的物件子图像选用填充方法,获取物件测距参数。该方法大大提高了物件定位的准确度,为精确测量自身与物件的距离提供了良好的前提条件。5)运用MATLAB2011图像处理和编程技术实现图像捕获、图像预处理、物件检测与定位和物件测距的全过程。其语言精简、处理时间短、处理精度高,符合在机器人行进间的运行状态下信息加工的要求。7.2建议1)在本研究的基础上,应加深对智能算法的进一步研究,探求更适合的图像处理方法以及先进的模式识别手段,以提高图像处理的质量和检测精度;同时应注意优化编程语言,尽可能缩短处理时间,为现代智能机器人研究提供更加高质量的技术手段。2)增强该技术的适应性,扩展功能,使机器人在坡道、非正常日照(如夜晚)下亦能精确自定位,这将是机器人视觉技术方面的又一个挑战。参考文献:1章毓晋.图像处理和分析M.北京:清华大学出版社,1999.Z2房芳,马旭东,戴先中.基于霍夫空间模型匹配的移动机器人全局定位方法J.机器人,2005,27(1):35-40.3王珂,王伟,庄严,等.基于几何拓扑广域三维地图和全向视觉的移动机器人自定位J.自动化学报,2008,34(11):1369-1378.4厉茂海,洪炳镕,罗荣华,等.基于单目视觉的移动机器人全局定位J.机器人,2007,29(2):140-144.5卢惠民,刘斐,郑志强.一种新的用于足球机器人的全向视觉系统J.中国图象图形学报,2007,12(7):1243-1248.6朱莹,洪炳镕,王燕清.基于CBL的双目视觉自主机器人定位J.哈尔滨工业大学学报,2004,36(7):896-898.7王景川,陈卫东,曹其新.基于全景视觉与里程计的移动机器人自定位方法研究J.机器人,2005,27(1):41-45.8董再励,郝颖明,朱枫.一种基于视觉的移动机器人定位系统J.中国图象图形学报,2000,5(8):688-692.9Lee Dong-Min,Kim Dong-Ho,Kim Byung-soo,etalDevelopment of Autonomous Test vehicle Using Image ProcessingIntelligent Vehicles Symposium,Proceedings of the IEEE,1996:409-414lOMassimo Bertozzi,A1bercoBroggi,Giamni Conte,etalObstacle and lane detection on ARGO Intelligent Transportation System1TSC97 IEEE Conference Oil1997:1010-101511RGregor,MLiitxeler,MPelllcofer,etalEMSVision:APerceptual SystemFor Autonomous VehiclesProceedings of the IEEE Intelligent Vehicles Symposium,USA,2000:525712Charles Thorpe,Martial HHebert,Takeo Kande ,etalVision and Navigation for the Cameffie-Mellon NavlabIEEE Transaction on Pattern and Machine Intelligence1988,10(3):36237313Sousa JBAn integrated development Process for automated or driver-assis tvehiclesProceedings ofSPIE2002:22823714皮燕妮智能车视觉雷达辅助导航关键技术研究D.西安:西北工业大学,200515罗军辉等MATLAB70在图像处理中的应用M.北京:机械工业出版社,2005616冈萨雷斯等数字图像处理(MATLAB版)M.北京:电子工业出版社,2005917潘春荣图像处理在测量系统中的应用研究D.汕头:汕头大学,200618Milan Sonka等图像处理、分析与机器视觉M.北京:人民邮电出版社,2003919胡小锋等Visual C+MATLAB图像处理与识别实用案例精选M.北京:人民邮电出版社,200
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2025年制造业成本控制工程师竞聘面试题详解
- 2025年有机硅、有机硅橡胶项目发展计划
- 拇外翻角度测量课件
- 护士半年度个人总结课件
- 2025年复配色粉项目建议书
- 2025年低温储运应用设备合作协议书
- 抛光安全培训目的及意义
- 2025年精密过滤输液器合作协议书
- 辽宁省名校联盟2026届高三上学期9月份联合考试数学试卷(含解析)
- 2025年新型高性能低合金钢、合金钢材料项目合作计划书
- 2025-2026人教版(2024)二年级上册数学教学计划
- 湖北省利川市2025年上半年公开招聘辅警试题含答案分析
- 八年级历史上学期 导言课 课件(内嵌视频)
- 1.1.2 生物的特征 同步练习(含解析)人教版(2024)初中生物学七年级上册
- 反电信诈骗课件
- 2025云南玉溪国润建筑有限责任公司招聘工作人员10人笔试备考题库及答案解析
- 2025云南省腾冲市边防办招聘边境专职联防员(10人)笔试备考试题及答案解析
- 湘教版七年级地理上册同步课时教学设计
- 涂装安全知识培训课件
- 幼儿园保安培训课件
- 凉山州人力资源和社会保障局“千名英才·智汇凉山”行动2025年第一批引才(609人)模拟试卷含答案解析
评论
0/150
提交评论