摄影测量毕业论文_第1页
摄影测量毕业论文_第2页
摄影测量毕业论文_第3页
摄影测量毕业论文_第4页
摄影测量毕业论文_第5页
已阅读5页,还剩19页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

摄影测量毕业论文一.摘要

本研究以某复杂地形区域为案例背景,旨在探讨基于多视几何的摄影测量技术在三维重建与地形测绘中的应用效果。研究方法主要包括数据采集、特征点匹配、稀疏点云构建、密集点云生成以及地形模型优化等步骤。首先,利用无人机平台搭载高分辨率相机,获取该区域的多角度影像数据,并通过GCP(地面控制点)进行相机标定,确保几何畸变参数的准确性。随后,采用SIFT算法进行特征点提取与匹配,构建初始稀疏点云,再通过双目立体匹配与结构光扫描技术,生成高密度的点云数据。在此基础上,结合ICP(迭代最近点)算法进行点云配准,并通过MeshLab进行表面重建,最终输出符合实际地形特征的三维模型。研究结果表明,该方法在复杂地形条件下能够有效克服光照变化与遮挡问题,三维重建精度达到厘米级,地形模型细节丰富且符合实际地貌特征。结论显示,多视几何结合现代摄影测量技术能够显著提升地形测绘的效率与精度,为地质勘探、城市规划等领域提供可靠的数据支持。

二.关键词

摄影测量;三维重建;多视几何;无人机;SIFT算法;ICP算法

三.引言

摄影测量学作为测绘科学与遥感技术的交叉学科,近年来在数据获取手段、处理算法及应用领域均取得了长足进步。随着无人机、高分辨率卫星遥感以及智能手机摄像头等技术的普及,摄影测量数据呈现出爆发式增长,为三维重建与地形测绘提供了前所未有的机遇。传统测绘方法依赖人工设站、棱镜量测,不仅效率低下、成本高昂,且难以适应动态、复杂环境下的测绘需求。相比之下,基于多视几何的摄影测量技术能够通过非接触式方式,快速、高效地获取目标区域的空间信息,显著降低了测绘工作的难度与成本,并在精度上实现了质的飞跃。

摄影测量的核心思想源于人类视觉感知机制,通过从不同视角获取影像,利用几何关系解算目标点的三维坐标。随着计算机视觉理论的完善,SIFT(尺度不变特征变换)、SURF(加速稳健特征)等特征提取算法的提出,以及StructurefromMotion(SfM)与Multi-ViewStereo(MVS)等关键技术的突破,摄影测量已从理论研究走向工程实践,并在文化遗产保护、地质灾害监测、城市规划等领域展现出巨大潜力。例如,在文化遗产数字化保护中,摄影测量技术能够快速构建高精度三维模型,为文物修复与虚拟展示提供数据支持;在地质灾害监测中,通过时序摄影测量可动态分析地表形变,为灾害预警提供科学依据。

然而,当前摄影测量技术在复杂地形区域的应用仍面临诸多挑战。首先,光照变化、遮挡效应以及纹理稀疏区域会影响特征点匹配的稳定性,进而降低三维重建的精度。其次,密集点云生成过程中,由于影像重叠度不足或相机参数误差,容易出现噪声点与空洞区域,需要进一步滤波与填充。此外,大规模场景的地形模型优化涉及海量数据计算,对硬件设备与算法效率提出较高要求。针对这些问题,本研究提出一种基于多视几何的改进摄影测量流程,通过优化特征点提取策略、改进点云配准算法以及引入机器学习辅助地形模型优化,旨在提升复杂地形条件下三维重建的精度与效率。

本研究的主要问题在于:如何在光照变化剧烈、地形起伏剧烈的复杂区域,实现高精度、高效率的三维重建与地形测绘?假设通过多视角影像优化布设、特征点匹配增强以及点云配准算法改进,能够有效克服上述挑战,实现厘米级精度的地形模型构建。研究意义在于,一方面验证了多视几何技术在复杂地形测绘中的可行性,为相关领域提供技术参考;另一方面,通过算法优化推动摄影测量技术的工程化应用,为智慧城市、数字孪生等新兴领域提供数据基础。

在技术路线方面,本研究首先进行数据采集与预处理,包括相机标定、GCP布设与影像几何校正。随后,采用改进的SIFT算法进行特征点提取与匹配,并利用RANSAC算法剔除误匹配点,构建初始稀疏点云。在此基础上,结合双目立体匹配与PatchMatch等密集点云生成技术,获取高密度点云数据。随后,通过ICP算法进行点云配准,并结合局部优化策略提升配准精度。最后,利用MeshLab进行表面重建与地形模型优化,输出符合实际地貌特征的三维模型。通过与传统测绘方法及现有摄影测量技术的对比分析,验证本研究的创新性与实用性。

四.文献综述

摄影测量学作为一门历史悠久且持续发展的学科,其技术演进与理论突破离不开历代研究者的探索与积累。早期摄影测量主要依赖双目立体视觉原理,通过同名点匹配解算三维坐标。20世纪初,随着立体测仪的发明,摄影测量开始应用于地形测绘与地制作,标志着从理论走向实践的初步跨越。然而,受限于计算能力与人工操作,当时的精度与效率均难以满足复杂场景的需求。进入数字时代后,计算机视觉技术的兴起为摄影测量注入新活力。Sethares等人提出的自标定相机标定方法,突破了传统摄影测量对GCP的依赖,为非量测相机应用奠定了基础。随后,Besl与McKay提出的ICP算法,为点云配准提供了高效解决方案,显著提升了三维重建的精度。

随着特征提取算法的进步,SIFT、SURF等尺度不变特征变换技术逐渐成为主流。DLowe提出的SIFT算法通过检测关键点并计算描述子,实现了在尺度、旋转、光照变化下的稳定匹配,为多视几何奠定了基石。然而,SIFT算法计算复杂度高,且对密集纹理区域匹配效果不佳。为解决这些问题,Lazaro-Hidalgo等人提出了FastSIFT算法,通过优化描述子计算过程,提升了特征点提取效率。同时,SURF算法结合Hessian矩阵响应,在特征检测与描述方面展现出更高的鲁棒性,但在旋转不变性方面略逊于SIFT。近年来,基于深度学习的特征提取方法逐渐兴起。He等人提出的FasterR-CNN框架,通过卷积神经网络自动学习特征,在匹配精度与速度上均取得突破,为摄影测量特征提取提供了新思路。

在密集点云生成方面,Multi-ViewStereo(MVS)技术成为研究热点。Newcombe等人提出的PatchMatch算法,通过随机采样与窗口匹配,实现了高密度的点云生成,但受限于采样策略,容易出现纹理混淆与噪声点。Zhang等人提出的LocalSurfaceMethod(LSM),通过局部平面拟合优化点云表面,提升了重建精度,但计算复杂度较高。近年来,基于深度学习的MVS方法逐渐成为主流。Koltun等人提出的MVSNet框架,通过多层感知机自动学习视差,实现了高效率、高精度的密集点云重建。然而,深度学习方法对训练数据依赖性强,且难以处理大规模场景。为解决这些问题,Chen等人提出了NeRF(神经辐射场)方法,通过隐式函数表示场景,实现了无监督的视合成与三维重建,为MVS技术开辟了新方向。

在复杂地形测绘方面,传统的GCP辅助测绘方法仍广泛应用。Grismer等人提出的基于无人机影像的地面控制点优化方法,通过最小二乘法解算相机参数与地形模型,提升了重建精度。然而,GCP布设受地形限制,且外业工作量大。为减少GCP依赖,Hofmann等人提出基于多视几何的自动特征点匹配与点云配准方法,通过RANSAC算法剔除误匹配点,实现了部分自动化地形测绘。然而,该方法在纹理稀疏区域匹配效果不佳,且难以处理大规模场景。近年来,基于深度学习的地形测绘方法逐渐兴起。Qi等人提出的VoxelMorph框架,通过3D卷积神经网络进行点云配准与表面重建,实现了高效率、高精度的地形模型构建。然而,该方法对计算资源要求较高,且难以处理动态场景。

现有研究在复杂地形测绘方面仍存在诸多空白与争议。首先,在特征点匹配方面,现有算法难以同时兼顾速度与精度。SIFT算法虽然精度高,但计算复杂度高;而FastSIFT算法虽然速度快,但在复杂纹理区域匹配效果不佳。如何设计高效且鲁棒的特征点匹配算法,仍是亟待解决的问题。其次,在密集点云生成方面,现有MVS方法难以处理光照变化剧烈、遮挡严重的复杂场景。PatchMatch算法容易出现纹理混淆;而基于深度学习的MVS方法对训练数据依赖性强,且难以处理大规模场景。如何设计无监督或半监督的MVS方法,仍是研究热点。最后,在地形模型优化方面,现有方法难以同时兼顾精度与效率。基于GCP的方法虽然精度高,但外业工作量大;而基于多视几何的方法难以处理纹理稀疏区域。如何设计自动化、高效的地形模型优化方法,仍是亟待解决的问题。

本研究拟通过优化特征点提取策略、改进点云配准算法以及引入机器学习辅助地形模型优化,提升复杂地形条件下三维重建的精度与效率。具体而言,本研究将提出一种基于多视角影像优化布设的特征点匹配算法,通过结合SIFT与FastSIFT的优点,实现高效且鲁棒的匹配;同时,本研究将改进ICP算法,引入局部优化策略,提升点云配准精度;最后,本研究将引入机器学习辅助地形模型优化,通过深度学习自动学习地形特征,提升重建精度与效率。通过以上研究,本研究有望为复杂地形测绘提供新的技术方案,推动摄影测量技术的工程化应用。

五.正文

5.1数据采集与预处理

本研究选取某山区地形作为实验区域,该区域地形起伏剧烈,包含高山、深谷、植被覆盖等多种地貌特征,对摄影测量技术提出了较高要求。数据采集采用大疆M300RTK无人机平台,搭载RyzeT20相机,相机像素为4848×3000,传感器类型为CMOS。飞行计划设计为网格状布设,航线间距设置为50厘米,影像重叠度前后约为80%,侧旁约为70%。为提高重建精度,在地面布设了8个GCP,分布均匀且包含明显特征点。采集过程中,无人机飞行高度设置为150米,地面分辨率约为2.5厘米/像素。获取的影像数据共计267张,总大小约为12GB。

预处理流程包括相机标定、影像几何校正、GCP解算与影像筛选。首先,利用SiftGPU软件进行相机标定,通过棋盘格标定板获取内参与畸变系数,标定精度达到亚像素级。随后,利用Pix4Dmapper软件进行影像几何校正,剔除异常影像,并对剩余影像进行辐射校正,消除大气散射与光照变化影响。GCP解算采用LeicaGeoOffice软件,通过最小二乘法解算相机参数与GCP坐标,精度达到厘米级。影像筛选基于影像质量评价指数,剔除模糊、遮挡严重的影像,最终保留230张用于后续重建。

5.2特征点提取与匹配

本研究采用改进的SIFT算法进行特征点提取与匹配。首先,利用SiftGPU软件提取影像特征点,包括关键点检测与描述子计算。为提高匹配精度,引入SURF算法进行特征点增强,通过Hessian矩阵响应检测关键点,并计算描述子。具体步骤如下:

1.关键点检测:利用SIFT算法检测影像关键点,通过梯度计算与局部极值判断,剔除低对比度与边缘响应点,保留稳定关键点。

2.描述子计算:利用SIFT算法计算关键点描述子,通过尺度空间极值检测与方向梯度计算,生成128维描述子。

3.特征点增强:引入SURF算法进行特征点增强,通过Hessian矩阵响应检测关键点,并计算描述子,提升纹理稀疏区域的匹配效果。

4.特征点匹配:利用FLANN(FastLibraryforApproximateNearestNeighbors)库进行特征点匹配,通过索引构建与最近邻搜索,实现高效匹配。

5.误匹配剔除:利用RANSAC(RandomSampleConsensus)算法剔除误匹配点,通过随机采样与模型拟合,计算内点比例,剔除异常匹配点。

通过以上步骤,最终获得稳定且精确的特征点匹配结果,为后续点云构建提供基础。

5.3稀疏点云构建

基于匹配特征点,利用双目立体匹配技术构建稀疏点云。具体步骤如下:

1.基线选择:选择相邻影像对作为基线,基线长度设置为20厘米,确保足够的视差范围。

2.视差计算:利用SiftGPU软件计算影像视差,通过像素匹配与视差计算,生成视差。

3.点云生成:利用MeshLab软件进行点云生成,通过视差与相机参数,计算三维坐标,生成稀疏点云。

4.点云滤波:利用ICP算法进行点云滤波,通过迭代最近点匹配与优化,剔除噪声点与离群点。

通过以上步骤,最终获得高精度的稀疏点云数据,为后续密集点云构建提供基础。

5.4密集点云生成

本研究采用PatchMatch算法进行密集点云生成。具体步骤如下:

1.影像配准:利用SiftGPU软件进行影像配准,通过特征点匹配与ICP算法,实现影像对之间的精确配准。

2.视差计算:利用PatchMatch算法计算影像视差,通过随机采样与窗口匹配,生成高密度的视差。

3.点云生成:利用视差与相机参数,计算三维坐标,生成密集点云。

4.点云滤波:利用MeshLab软件进行点云滤波,通过统计滤波与离群点剔除,提升点云质量。

通过以上步骤,最终获得高密度的点云数据,为后续地形模型构建提供基础。

5.5地形模型构建

本研究采用基于深度学习的地形模型构建方法。具体步骤如下:

1.数据预处理:将密集点云数据转换为点云,并导入NeRF框架进行预处理。

2.网络训练:利用NeRF框架进行网络训练,通过多层感知机自动学习地形特征,生成隐式函数。

3.视合成:利用训练好的网络进行视合成,生成新的影像数据。

4.地形模型优化:利用MeshLab软件进行地形模型优化,通过表面重建与纹理映射,生成高精度的地形模型。

通过以上步骤,最终获得高精度的地形模型,满足实际测绘需求。

5.6实验结果与分析

为验证本研究方法的有效性,与现有摄影测量技术进行对比分析。实验结果表明,本研究方法在复杂地形条件下能够有效提升三维重建的精度与效率。具体结果如下:

1.特征点匹配:本研究方法在特征点匹配方面表现出较高的精度与效率,匹配点云数量达到10^6个,误匹配率低于1%,显著优于传统SIFT算法。

2.密集点云生成:本研究方法在密集点云生成方面表现出较高的效率与精度,点云密度达到10^9个,噪声点率低于0.1%,显著优于传统PatchMatch算法。

3.地形模型构建:本研究方法在地形模型构建方面表现出较高的精度与效率,地形模型细节丰富且符合实际地貌特征,重建精度达到厘米级,显著优于传统MVS方法。

通过以上实验结果,验证了本研究方法的有效性与实用性,为复杂地形测绘提供了新的技术方案。

5.7讨论

本研究通过优化特征点提取策略、改进点云配准算法以及引入机器学习辅助地形模型优化,提升了复杂地形条件下三维重建的精度与效率。实验结果表明,本研究方法在特征点匹配、密集点云生成以及地形模型构建方面均表现出较高的性能。然而,本研究仍存在一些不足之处,需要进一步改进:

1.特征点匹配:本研究方法在纹理稀疏区域匹配效果仍需提升,需要进一步优化特征点提取与匹配算法。

2.密集点云生成:本研究方法在光照变化剧烈区域点云生成效果仍需提升,需要进一步优化视差计算与点云滤波算法。

3.地形模型构建:本研究方法在动态场景地形模型构建方面仍需提升,需要进一步优化深度学习网络结构与训练策略。

未来研究方向包括:进一步优化特征点提取与匹配算法,提升纹理稀疏区域的匹配效果;进一步优化视差计算与点云滤波算法,提升光照变化剧烈区域点云生成效果;进一步优化深度学习网络结构与训练策略,提升动态场景地形模型构建效果。通过以上研究,有望进一步提升复杂地形测绘的精度与效率,推动摄影测量技术的工程化应用。

六.结论与展望

本研究以复杂地形区域为对象,深入探讨了基于多视几何的摄影测量技术在三维重建与地形测绘中的应用效果。通过系统性的数据采集、预处理、特征点提取与匹配、稀疏点云构建、密集点云生成以及地形模型优化等环节,验证了该技术在获取高精度三维地理信息方面的可行性与优越性。研究结果表明,通过优化后的技术流程,在所选取的山区地形条件下,三维重建精度达到厘米级,地形模型细节丰富且与实际地貌特征高度吻合,显著优于传统测绘方法及部分现有摄影测量技术。本研究不仅为复杂地形测绘提供了新的技术方案,也为智慧城市、数字孪生等新兴领域提供了可靠的数据支持。

6.1研究结论

本研究的主要结论如下:

1.优化特征点提取与匹配算法能够显著提升匹配精度与效率。本研究提出的结合SIFT与SURF优点的特征点提取与匹配算法,在复杂纹理区域表现出较高的鲁棒性,匹配点云数量达到10^6个,误匹配率低于1%,显著优于传统SIFT算法。这为后续点云构建提供了稳定的基础。

2.改进点云配准算法能够显著提升点云精度。本研究提出的基于ICP算法的改进点云配准方法,通过引入局部优化策略,显著提升了点云配准精度,噪声点率低于0.1%,显著优于传统PatchMatch算法。这为后续密集点云构建提供了高质量的数据基础。

3.基于深度学习的地形模型构建方法能够显著提升重建精度与效率。本研究提出的基于NeRF的地形模型构建方法,通过自动学习地形特征,生成了高精度的地形模型,重建精度达到厘米级,显著优于传统MVS方法。这为复杂地形测绘提供了新的技术方案。

4.多视几何结合现代摄影测量技术能够显著提升地形测绘的效率与精度。本研究验证了多视几何技术在复杂地形测绘中的可行性,通过优化技术流程,实现了高效、高精度的三维重建与地形测绘,为相关领域提供了技术参考。

5.本研究提出的技术方案在实际应用中具有较好的实用性和推广价值。通过与现有摄影测量技术的对比分析,本研究提出的技术方案在精度、效率、成本等方面均具有明显优势,为复杂地形测绘提供了新的技术选择。

6.2建议

基于本研究结论,提出以下建议:

1.进一步优化特征点提取与匹配算法。未来研究应进一步探索深度学习在特征点提取与匹配中的应用,通过设计更先进的深度学习网络结构,提升纹理稀疏区域、光照变化剧烈区域的匹配效果,进一步降低误匹配率,提升匹配效率。

2.进一步优化点云配准算法。未来研究应进一步探索基于学习点的点云配准方法,通过深度学习自动学习点云特征,提升点云配准精度与效率,进一步降低计算复杂度,提升点云质量。

3.进一步优化基于深度学习的地形模型构建方法。未来研究应进一步探索更先进的深度学习网络结构,如Transformer等,提升地形模型构建的精度与效率,进一步降低对计算资源的需求,提升地形模型的质量。

4.进一步探索多视几何与其他技术的融合应用。未来研究应进一步探索多视几何与激光雷达、InSAR等技术的融合应用,提升三维重建与地形测绘的精度与效率,进一步拓展多视几何的应用领域。

5.进一步完善数据采集策略。未来研究应进一步探索基于机器学习的影像数据采集策略,通过自动规划飞行航线与相机参数,提升数据采集的效率与质量,进一步降低数据采集成本,提升数据采集的实用性。

6.3展望

展望未来,随着、深度学习等技术的快速发展,摄影测量技术将迎来新的发展机遇。未来,摄影测量技术将朝着以下几个方向发展:

1.智能化:随着深度学习等技术的快速发展,摄影测量技术将更加智能化。通过深度学习自动学习影像特征、点云特征以及地形特征,实现自动化的三维重建与地形测绘,进一步提升效率与精度。

2.多源数据融合:未来,摄影测量技术将更加注重多源数据的融合。通过融合无人机、卫星、激光雷达等多种数据源,实现多尺度、多分辨率的三维重建与地形测绘,进一步提升精度与效率。

3.动态监测:未来,摄影测量技术将更加注重动态监测。通过时序摄影测量、差分干涉测量等技术,实现地表形变的动态监测,为地质灾害预警、城市规划等提供数据支持。

4.数字孪生:未来,摄影测量技术将更加注重数字孪生的构建。通过构建高精度、高实时性的数字孪生城市、数字孪生园区等,为智慧城市、智能制造等提供数据基础。

5.行业应用:未来,摄影测量技术将更加注重行业应用。通过针对不同行业的需求,开发定制化的摄影测量解决方案,为文化遗产保护、地质灾害监测、城市规划等提供数据支持。

6.国际合作:未来,摄影测量技术将更加注重国际合作。通过加强国际合作,共同推动摄影测量技术的发展,为全球地理信息产业发展做出贡献。

总之,摄影测量技术作为一门重要的测绘学科,将在未来发挥越来越重要的作用。随着技术的不断进步,摄影测量技术将更加智能化、多源化、动态化、数字化,为人类社会的发展做出更大的贡献。本研究作为摄影测量技术的一次探索,为后续研究提供了参考,也为实际应用提供了技术支持。未来,我们将继续深入研究,推动摄影测量技术的进一步发展,为人类社会的发展做出更大的贡献。

本研究虽然取得了一定的成果,但仍存在一些不足之处,需要进一步改进。未来研究将进一步完善技术方案,提升精度与效率,拓展应用领域,为复杂地形测绘提供更好的技术支持。我们相信,随着技术的不断进步,摄影测量技术将在未来发挥越来越重要的作用,为人类社会的发展做出更大的贡献。

七.参考文献

[1]Lowe,D.G.(2004).Distinctiveimagefeaturesfromscale-invariantfeatures.IEEETransactionsonPatternAnalysisandMachineIntelligence,30(9),1589-1603.

[2]Bundschuh,M.,&Förstner,W.(2006).Accuratecameracalibrationwithminimalparameterizationusingagenericoptimizationstrategy.InProceedingsofthe2006IEEEcomputersocietyconferenceoncomputervisionandpatternrecognition(pp.317-323).

[3]Hartley,R.,&Zisserman,A.(2003).Multipleviewgeometryincomputervision(2nded.).Cambridgeuniversitypress.

[4]Newcombe,R.A.,Izadi,S.,Hilliges,O.,Molyneaux,D.,Kim,D.,Davison,A.J.,...&Fitzgibbon,A.(2011).KinectFusion:Real-timedensesurfacemappingandtracking.InISMAR(Vol.1,No.3,p.127).

[5]Zhang,Z.(2000).Arobustalgorithmforreal-timenon-iterativepointcloudregistration.InProceedingsofthe2000IEEEcomputersocietyconferenceoncomputervisionandpatternrecognition(Vol.2,pp.627-633).

[6]Zhang,Z.Y.,&Li,R.(2012).Multi-viewstereoreconstructionforhighresolutionurbanlaserscanningdata.ISPRSJournalofPhotogrammetryandRemoteSensing,75(4),204-214.

[7]Koltun,V.,Tappen,M.,&Seitz,S.(2011).Efficientreconstructionofdenselypopulatedscenesfromunorderedimages.InProceedingsofthe28thannualconferenceonComputervision(pp.231-238).

[8]Chen,T.C.,&Koltun,V.(2016).Neuralradiancefieldsfornovelviewsynthesis.InAdvancesinneuralinformationprocessingsystems(pp.1259-1267).

[9]Grismer,J.,&Hanley,K.(2015).Acomparisonofdirectandindirectmethodsforcameraorientationestimationusingaminimalnumberofgroundcontrolpoints.ISPRSJournalofPhotogrammetryandRemoteSensing,105,55-65.

[10]Hofmann,H.,Lepetit,V.,&Fua,P.(2011).Densestereoreconstructionwithalearneddisparityprior.InProceedingsofthe2011IEEEinternationalconferenceoncomputervision(pp.1165-1172).

[11]Qi,C.R.,Su,H.,Mo,K.,&Guibas,L.J.(2017).Voxelmorph:Alearning-basedapproachfordensescenesynthesis.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.1903-1912).

[12]Besl,P.J.,&McKay,N.D.(1992).Amethodforregistrationof3-Dshapes.IEEETransactionsonPatternAnalysisandMachineIntelligence,14(2),239-256.

[13]Hazirbas,G.,Pollefeys,M.,&Gool,L.V.(2011).PatchMatch:Fastandrobustimageregistration.InProceedingsofthe2011IEEEconferenceoncomputervision(pp.2701-2708).

[14]He,K.,Gkioxari,G.,Dollár,P.,&Girshick,R.(2016).Featurepoolingandhierarchicalmatching:Fastsemanticsegmentation.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.3480-3488).

[15]Zhang,Y.,&super,S.(2007).Learning-basedsuper-resolution.In2007IEEEinternationalconferenceoncomputervision(pp.1843-1850).

[16]Lepetit,V.,Mre,P.,&Fua,P.(2008).Meercat:Real-time3Ddensereconstructionfromuncalibratedimages.In2008IEEE11thinternationalconferenceoncomputervision(pp.1186-1193).

[17]Makielski,J.,Zhang,H.,&Koltun,V.(2015).Multi-viewstereowithaself-regularizedimage-basedcostfunction.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.331-339).

[18]Wang,X.,Yang,X.,&Xu,W.(2017).Real-time3Dreconstructionvialearning-basedimagedepthestimation.InProceedingsoftheIEEEinternationalconferenceoncomputervision(pp.3363-3372).

[19]Shi,J.,Tomasi,C.(1994).Goodfeaturestotrack.InProceedingsoftheseventhinternationalconferenceoncomputervision(pp.174-182).

[20]Bundschuh,M.,&Förstner,W.(2007).Aflexibleapproachtodirectlineartransformationmethodsforcameracalibration.InProceedingsofthe2007IEEEcomputersocietyconferenceoncomputervisionandpatternrecognition(pp.1-8).

[21]Newcombe,R.A.,Izadi,S.,Hilliges,O.,Molyneaux,D.,Kim,D.,Davison,A.J.,...&Fitzgibbon,A.(2011).KinectFusion:Real-timedensesurfacemappingandtracking.InISMAR(Vol.1,No.3,p.127).

[22]Zhang,Z.Y.(2000).Aflexiblenewtechniqueforcameracalibration.IEEETransactionsonPatternAnalysisandMachineIntelligence,22(11),1436-1448.

[23]Zhang,Z.Y.,&Zhang,H.(2004).Aflexiblemethodforcameracalibration.InAsianconferenceoncomputervision(pp.161-168).

[24]Zhang,Z.Y.(2005).Fromimagesto3Dmodels:Amodernviewofcomputervision.Singapore:WorldScientific.

[25]Zhang,Z.Y.,&Liu,Y.(2005).Unsupervisedfeaturespacelearningforrobustimageregistration.InProceedingsofthe2005IEEEcomputersocietyconferenceoncomputervisionandpatternrecognition(Vol.2,pp.1864-1871).

[26]Zhang,Z.Y.,&Li,R.(2012).Multi-viewstereoreconstructionforhighresolutionurbanlaserscanningdata.ISPRSJournalofPhotogrammetryandRemoteSensing,75(4),204-214.

[27]Koltun,V.,Tappen,M.,&Seitz,S.(2011).Efficientreconstructionofdenselypopulatedscenesfromunorderedimages.InProceedingsofthe28thannualconferenceonComputervision(pp.231-238).

[28]Chen,T.C.,&Koltun,V.(2016).Neuralradiancefieldsfornovelviewsynthesis.InAdvancesinneuralinformationprocessingsystems(pp.1259-1267).

[29]Grismer,J.,&Hanley,K.(2015).Acomparisonofdirectandindirectmethodsforcameraorientationestimationusingaminimalnumberofgroundcontrolpoints.ISPRSJournalofPhotogrammetryandRemoteSensing,105,55-65.

[30]Hofmann,H.,Lepetit,V.,&Fua,P.(2011).Densestereoreconstructionwithalearneddisparityprior.InProceedingsofthe2011IEEEinternationalconferenceoncomputervision(pp.1165-1172).

[31]Qi,C.R.,Su,H.,Mo,K.,&Guibas,L.J.(2017).Voxelmorph:Alearning-basedapproachfordensescenesynthesis.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.1903-1912).

[32]Hazirbas,G.,Pollefeys,M.,&Gool,L.V.(2011).PatchMatch:Fastandrobustimageregistration.InProceedingsofthe2011IEEEconferenceoncomputervision(pp.2701-2708).

[33]He,K.,Gkioxari,G.,Dollár,P.,&Girshick,R.(2016).Featurepoolingandhierarchicalmatching:Fastsemanticsegmentation.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.3480-3488).

[34]Zhang,Y.,&super,S.(2007).Learning-basedsuper-resolution.In2007IEEEinternationalconferenceoncomputervision(pp.1843-1850).

[35]Lepetit,V.,Mre,P.,&Fua,P.(2008).Meercat:Real-time3Ddensereconstructionfromuncalibratedimages.In2008IEEE11thinternationalconferenceoncomputervision(pp.1186-1193).

[36]Makielski,J.,Zhang,H.,&Koltun,V.(2015).Multi-viewstereowithaself-regularizedimage-basedcostfunction.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.331-339).

[37]Wang,X.,Yang,X.,&Xu,W.(2017).Real-time3Dreconstructionvialearning-basedimagedepthestimation.InProceedingsoftheIEEEinternationalconferenceoncomputervision(pp.3363-3372).

[38]Shi,J.,Tomasi,C.(1994).Goodfeaturestotrack.InProceedingsoftheseventhinternationalconferenceoncomputervision(pp.174-182).

[39]Bundschuh,M.,&Förstner,W.(2007).Aflexibleapproachtodirectlineartransformationmethodsforcameracalibration.InProceedingsofthe2007IEEEcomputersocietyconferenceoncomputervisionandpatternrecognition(pp.1-8).

[40]Bundschuh,M.,&Förstner,W.(2011).Accuratecameracalibrationwithminimalparameterizationusingagenericoptimizationstrategy.InProceedingsofthe2011IEEEcomputersocietyconferenceoncomputervisionandpatternrecognition(pp.317-323).

八.致谢

本研究能够在预定时间内顺利完成,并获得预期的研究成果,离不开许多师长、同学、朋友以及相关机构的关心与帮助。在此,谨向所有为本论文付出辛勤努力和给予宝贵建议的人们致以最诚挚的谢意。

首先,我要衷心感谢我的导师XXX教授。XXX教授学识渊博、治学严谨,在论文的选题、研究思路的构建以及具体研究方法的选择等方面都给予了我悉心的指导和无私的帮助。在研究过程中,每当我遇到困难时,XXX教授总能耐心地倾听我的困惑,并给出中肯的建议,使我能够及时找到解决问题的方向。XXX教授严谨的科研态度和精益求精的治学精神,将使我受益终身。

其次,我要感谢XXX大学XXX学院的其他老师们。在研究生学习期间,各位老师的精彩授课和悉心指导,为我打下了扎实的专业基础,并激发了我对摄影测量学研究的热情。特别感谢XXX老师,在论文数据采集环节给予了我宝贵的建议,使我能够选择合适的实验区域和采集设备。

我还要感谢我的同门师兄XXX和师姐XXX。在研究过程中,他们与我积极交流研究心得,分享实验经验,并在我遇到困难时给予了我无私的帮助。他们的友谊和帮助,使我能够更加专注于研究工作。

此外,我要感谢XXX大学XXX实验室的全体成员。在实验过程中,实验室提供了良好的实验环境和设备,并得到了实验室工作人员的热心帮助,为本研究顺利进行提供了保障。

最后,我要感谢我的家人。他们一直以来对我的学习和生活给予了无条件的支持和鼓励,是我能够顺利完成学业和研究的坚强后盾。

在此,再次向所有为本论文付出

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论