CN118840529B 一种基于场景识别和深度学习的视觉定位方法及系统 (北京理工大学前沿技术研究院)_第1页
CN118840529B 一种基于场景识别和深度学习的视觉定位方法及系统 (北京理工大学前沿技术研究院)_第2页
CN118840529B 一种基于场景识别和深度学习的视觉定位方法及系统 (北京理工大学前沿技术研究院)_第3页
CN118840529B 一种基于场景识别和深度学习的视觉定位方法及系统 (北京理工大学前沿技术研究院)_第4页
CN118840529B 一种基于场景识别和深度学习的视觉定位方法及系统 (北京理工大学前沿技术研究院)_第5页
已阅读5页,还剩22页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

街道芙蓉路3266号北京理工大学前沿A,2020.05.12A,2017.05.31A,2018.04.27A,2021.04.20A,2021.11.16A,2023.09.29一种基于场景识别和深度学习的视觉定位本发明提出了一种基于场景识别和深度学2获取机器人所处的环境下的图像信息和机器针对匹配好的特征点,从特征匹配结果中选择一对图像,计算计算机器人上的相机的初始位姿时采用Pn;;采用均方误差损失来衡量校正后的位姿与真实位姿之;;其中,表示整个代价函数在当前状态下对相获取多场景图像信息,输入ResNet深度学习模型,调整最后一层3输入包含真实位姿标签的图像数据集,每张图像应有对应的3D点和其在信息获取模块,被配置为:获取机器人所处的环境下的初始位姿计算模块,被配置为:针对匹配好的特征点,计算机器人上的相机的初始位姿时采用Pn;;采用均方误差损失来衡量校正后的位姿与真实位姿之;;其中,表示整个代价函数在当前状态下对相45[0002]本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技[0005]视觉与激光雷达融合定位技术通过激光雷达获取的环境点云数据来辅助视觉定[0009]但是目前的场景识别主要是基于深度学习的结果进行的,上述方案存在的问题6[0024]作为进一步的技术方案,计算机器人上的相机的初始位姿时采用PnP算法估计相7相机数据采集卡通过PCI接入计算机,计算机对接收的数据进行处理,存储有训练后的模8[0060]ORB特征点由关键点和描述子两部分组成,是在FAST(Featuresfrom为:将场景图像中提取的一个像素点p与其周围半径为3的圆内的16个其他像素点进行比[0061]FAST角点缺少旋转不变性以及尺度不变性,ORB通过构建金字塔对每一层上不同9f和fz,它们的汉明距离d可以通[0078]本实施例子采用传统的PNP算法估计相机位姿,步骤三中已经得到了匹配好的特[0083]sui=KTpi[0095]其中Rodrigues(R)表示将[0113]其中,表示均方误差损失,Rmues和truei是第i个样本的真实位姿,Rcorri和到目标函数的最优解,不断地求解增量方程中的增量AX。既找到一个Aem让每一个Em+AEm所对应的重投影误差最小;找到一个AMW让每一个MW+AMW所对应的重投m[0137]J=(EF)[0149]g=-e(x)l[0152]这时只需要根据上式多轮迭代更新计算梯度就可以得到让误差函数f(x+AX)最[0156]在本实施例子中,上下文信息是指能够帮助确定相机所[0158]本实施例子技术方案李亚多视图几何定位结合深度学习辅助校正:PnP算法在初[0173]本实施例的目的是提供了一种包含指令的计算机程序产品,其在计算机上运行载用于由处理器执行的指令集并使

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论