【《基于多传感器融合的室内机器人建图与导航实验结果分析案例》4700字】_第1页
【《基于多传感器融合的室内机器人建图与导航实验结果分析案例》4700字】_第2页
【《基于多传感器融合的室内机器人建图与导航实验结果分析案例》4700字】_第3页
【《基于多传感器融合的室内机器人建图与导航实验结果分析案例》4700字】_第4页
【《基于多传感器融合的室内机器人建图与导航实验结果分析案例》4700字】_第5页
已阅读5页,还剩6页未读 继续免费阅读

付费下载

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

PAGE\*Arabic9基于多传感器融合的室内机器人建图与导航实验结果分析案例目录TOC\o"1-3"\h\u175511.1引言 166881.2实验系统搭建 199831.3激光与视觉融合建图实验分析 327771.4视觉与惯导融合导航定位实验分析 6262001.4.1视觉与惯导联合初始化对比分析实验 729211.4.2视觉与惯导融合导航定位精度分析实验 81.1引言本课题对基于多传感器融合的室内机器人建图与导航进行研究,主要研究分析了多种传感器对环境信息的处理过程,在此基础上,针对室内机器人建图,本文提出采用激光雷达和视觉融合的方式进行地图构建,针对室内机器人导航定位,本文提出采用视觉和惯性测量单元融合的方式进行定位。对于本文提出的关于建图和导航定位算法,本章对其分别进行实验验证分析。1.2实验系统搭建本文采用计算机仿真和turtlebot2移动机器人实际测试相结合的方式进行改进算法的实验验证分析,实验机器人底盘移动平台使用移动机器人Turtlebot2;计算机采用NVIDIAJetsonTX2作为移动机器人算法控制核心以及仿真的算法运行单元,TX2是一台基于NVIDIAPascal™架构的AI单模块超级计算机,性能强大,外形小巧,节能高效,适合机器人、无人机、智能摄像机和便携医疗设备等智能终端设备,预装Linux开发环境,同时还支持NVIDIAJetpackSDK,包括BSP、深度学习库、计算机视觉、GPU计算、多媒体处理等众多功能。因此非常适用于包括相机等有关计算机视觉方面的算法开发;双目相机采用ZED双目相机,其体型小巧轻便,且信号与电源公用一条线,安装方便;激光雷达使用思岚公司RplidarA3型号的单线激光雷达。为便于使用移动机器人仿真工具,在TX2中安装ubuntu16操作系统,在此基础上安装机器人操作系统。图5-1Turtlebot2移动机器人Turtlebot2移动机器人体积小巧,采用两轮差速驱动方式,另有一个从动轮,主动轮上安装有电动机和编码器,用来提供里程计数据,上部结构有多层平台可以放置安装相机、雷达、陀螺仪等其它传感器,方便开发SLAM相关技术。图5-2NVIDIATX2单板计算机NVIDIATX2单板计算机体积小,功耗低,运算能力强,在车载、机器视觉、人工智能等相关领域应用广泛,相比较第一代NVIDIATX1,其能源利用效率提高了两倍,运算能力也提高了两倍,使其在影像分频、导航与语音辨认等领域拥有更好的精度和反应速度。图5-3ZED双目相机ZED双目立体相机和相关软件套件搭配使用可以应用到无人机、机器人和其它自动化设备上实现防跌撞、自动导航、3D测绘等能力,其视觉能力来自于软件库CUDA,能让运行相机配套软件的计算机可以以15fps的速度处理最高4416x1242分辨率的实时景深地图,这款相机配备了一种基于被动立体视觉的景深传感器,通过USB3.0输出左右两个并行的高分辨率视频流。图5-4思岚A3单线激光雷达思岚公司研制的A3系列单线激光雷达,全面改进了内部光学结构和算法系统,采样频率可高达16000次/每秒,能让机器人实现更加快速和更加精确的建图以及导航,经过算法优化,其探测距离可达25米,能够获取到更多的环境轮廓信息,同时具备可靠的抗日光干扰能力,在检测黑白物体、远距离物体及强光直射物体时,测距表现更加稳定。1.3激光与视觉融合建图实验分析本节实验主要以实验对比的方式验证本文所提融合建图算法的性能,第一组对比实验是为了验证本文所提融合建图算法在小场景地图构建时是否会由于累计误差导致最终的地图无法闭合,选取的小场景实验特征相对较多;第二组对比实验选取的实验场景较大,特征点较少,通过实验验证融合建图算法是否在大场景建图的情况下能够改善地图无法形成闭环的情况。首先,分别采用激光SLAM算法Gmapping和本文提出的激光与视觉融合的建图算法对小场景进行构图,实验地点位于深圳市隆博机器人科技股份有限公司技术中心办公室休息区(实习期间做的实验),实验区域场地大小尺寸约为6m8m,实验区域实际场景图如下所示。图5-5办公室休息区实景图Gmapping建图算法可以实时构建室内地图,其高度依赖于底盘编码器里程计数据,并结合激光雷达完成地图的构建,在构建小场景地图时计算量小且精度高,当构建大场景地图时由于其算法没有设计回环检测,因此随着时间的累计一般会出现地图严重失真的情况,地图无法形成闭环,本文所提传感器融合建图算法与此算法进行建图比较,验证所提算法的性能。建图时设定机器人前进速度为0.3m/s,角速度为0.15rad/s,绕休息办公室休息区一圈,两种算法构建的地图如图5-6和5-7所示。图5-6Gmapping算法办公室休息区建图效果图5-7本文融合算法办公室休息区建图效果观察上面两幅图,从整体上看,因为构图面积小,Gmapping算法构建的地图未出现明显可见的失真,构图质量较好,观察本文融合算法构建的地图同样未出现明显可见的失真情况,构图质量也较好,通过上述对比实验说明,本文提出的激光雷达和相机视觉融合构图算法在小场景构图时可以构建出质量较高的地图。接下来使用Gmapping建图算法和本文所提传感器融合建图算法分别在大场景下进行构图实验,通过对比来验证本文所提算法是否能够在构建大场景地图时有效消除由于时间累计误差带来的地图失真。本次实验的场地是深圳市隆博机器人科技股份有限公司技术中心办公室,实验区域尺寸约为40m70m。机器人前进速度设置为0.3m/s,角速度为0.25rad/s,机器人绕办公室两圈完成地图构建。图5-8Gmapping算法办公室地图构建图5-9本文融合算法办公室地图构建观察上面两幅二维栅格地图,在Gmapping算法构建的办公室地图中可以看到在红色方框选取的地方,出现了明显的错位,这是因为办公室面积比较大,使用Gmapping进行构图时,当机器人绕第一圈时已完成全部地图的构建,但是此时的地图由于底盘编码器里程计累计误差的存在,使得越往后构建的地图与实际环境的偏差越大,但因为此时没有参照物,肉眼无法察觉,当机器人绕第二圈时,由于里程计累计误差,当经过相同的地方时,机器人获取的环境障碍物信息所在的坐标已经和第一圈获取的不一样了。地图发生明显的失真,这就是所谓的地图没有形成闭环,对机器人后面的定位导航等功能造成很大负面影响。观察图5-9,即本文融合算法对办公室构建的地图,这张地图采用激光雷达与双目相机融合算法进行地图构建,机器人同样绕办公室两圈进行建图构建,可观察地图并没有发现明显的地图失真现象,这是因为本文所提算法与传统建图算法相比有两点优势,第一点是由于传统算法Gmapping过度依赖底盘里程计数据,而底盘里程计累计误差无法有效消除,使机器人在构建地图时位姿数据精度低,而本文所提算法采用激光雷达和相机融合的方式进行地图构建,能够获取到更多的环境信息来辅助估算机器人位姿,从而提高了机器人构图时的位姿精度,使机器人构图过程中的累计误差降低;第二点是由于本文所提融合算法采用激光回环和相机视觉回环融合的方式进行地图的全局优化,所以从图5-9中可以看到,图中并没有出现明显失真的地方,这是因为机器人在绕第二圈时,在经过第一次经过的地方时,进行了回环检测,对全局地图进行了修正,增强了全局地图的一致性。为进一步验证本文所提算法构建地图的精度,通过机器人操作系统(ROS)上的可视化工具RVIZ对地图的精度进行尺度测量,首先测量两种算法构建的地图的地图尺寸,然后在实际环境中选取6个点进行真实测量,对比真实环境测量数据和两种建图算法构建的地图测量值,Gmapping构建的地图测量值和真实值对比结果如表5-1所示,本文融合地图构建算法和真实测量值对比结果如表5-2所示。表5-1Gmapping算法测量数据编号图测值/m真实值/m绝对误差/m相对误差/%126.921.81.14.3216.011.30.74.639.28.40.89.544.353.70.6517.552.32.20.17.9360.550.530.023.78表5-2本文融合算法测量数据编号图测值/m真实值/m绝对误差/m相对误差/%126.521.80.72.71211.9511.30.654.2439.38.40.910.744.403.70.718.952.32.20.14.5460.540.530.011.89根据表5-1和5-2可以看到,经过地图测量值和实际环境测量值之间的比较,可以看到本文融合算法比传统建图算法Gmapping算法在建图精度上有所提高,从6个点的绝对误差和相对误差上可以计算出,本文融合算法的建图精度比传统Gmapping算法的建图精度提高9.6%。1.4视觉与惯导融合导航定位实验分析1.4.1视觉与惯导联合初始化对比分析实验本节实验分析评估本文提出的IMU和相机联合初始化算法的性能,同样是采用实验对比的方法,与传统的联合初始化算法进行性能对比,本文选择与香港科技大学提出的VINS算法系统初始化算法进行对比,实验结果如下图5-10至5-15所示。图5-10加速度计偏差x轴对比图5-11陀螺仪偏差x轴对比图5-12加速度计偏差y轴对比图5-13陀螺仪偏差y轴对比图5-14加速度计偏差z轴对比图5-15陀螺仪偏差z轴对比观察上面几幅实验数据图可知,本文提出的联合初始化方法和传统的VINS算法在初始化的最后阶段精度很接近,都可以达到很高的精度,从时间上进行对比观察,可以发现,本文所提出的方法在收敛速度上相比于VINS算法更快一些。观察图5-10所示,在对加速度计x轴偏差实验中,在开始初始化的20秒内,本文提出的方法可以使加速度计x轴的偏差更小,收敛速度更快。观察图5-14和图5-15可知,在40秒联合初始化的时间内,本文提出的方法整体偏差始终比VINS算法中的初始化方法低,加速度计在z轴上的偏差达到最低值时,本文方法仅耗时23秒。因此,通过上述实验可以验证得出本文所提方法相比于VINS算法可以实现更快的联合初始化效果。1.4.2视觉与惯导融合导航定位精度分析实验为验证本文惯导与相机融合算法在机器人导航定位功能上的性能,在室内进行相关实验测试。测试地点选择宁夏大学贺兰山校区科技楼7楼电梯间。实验场景如下图所示。图5-16实验场景首先在实验室空地上用障碍物摆放出一个正方形区域,然后将机器人放置在正方形区域的某个拐角处作为机器人起始点,使用钢尺测量方形区域的宽度为2米,长度为3.25米,使用ROS系统中的可视化工具将四个拐点的坐标设置为固定点,最后分别应用ORBSLAM2算法和本文融合算法进行导航,导航过程需遍历四个拐点,采集导航过程中的路径信息,进行多次试验,每一次导航都需要从起点开始经过其它拐点后再次回到起点位置。实验过程中采集的导航路径数据如下图所示。图5-17轨迹可视化图5-18机器人运行轨迹如图5-17为机器人在ROS可视化工具中的运行轨迹,其中图中的点表示构建的稀疏点云,蓝色框为视觉的关键帧,绿色为运行轨迹。为方便直观的观察机器人运行轨迹的细节,将可视化工具中的运行轨迹展示在二维坐标平面上,结果如图5-18所示。观察5-18图可知,本文算法相比于ORBSLAM2算法运行出的轨迹更加接近地面真实轨迹,机器人在直线导航过程中,匀速行驶,轨迹误差较小,基本都在一个很小的范围内波动,但是当机器人转弯时,由于IMU的偏移迅速增大致使估计误差也增大了,由于本文算法采用IMU与相机视觉融合的方式进行位姿的解算,因此各传感器的位姿估计有更多的约束,所以相比于ORBSLAM2算法只使用相机视觉,本文算法在机器人位姿估算方面精度更高。为了进一步验证本文算法在机器人实际导航定位应用中的性能,接下来进行机器人在实际场景中的导航实验,实验场地在宁夏大学贺兰山校区科技楼701实验室。在整个实验过程中,为了最大限度的消除其它因素对本次实验结果的影响,在整个实验过程中实验环境中的障碍物摆放不得发生任何改变,导航实验的实际场景如下图所示。图5-19导航实验场景如上图所示,首先在实验室设定一个固定的导航起点和一个固定的导航终点,然后分别应用激光数据导航模型和本文所提的IMU与视觉数据融合的导航模型进行导航实验,单次实验过程如图5-20至5-22所示。图5-20机器人导航起点进行全局路径规划图5-21机器人执行导航任务图5-22机器人到达导航终点如上图5-19至5-22所示是机器人执行单次导航任务的过程,为量化本文算法的性能,本节采用绝对位姿误差APE来评价算法,如下表5-3所示是机器人采用两种不同的算法进行导航时的导航误差。表5-3机器人导航误差算法指标最大值最小值中值均值均方根误差标准差本文

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论