多源信息融合赋能:非合作航天器相对位姿测量技术的深度剖析与创新实践_第1页
多源信息融合赋能:非合作航天器相对位姿测量技术的深度剖析与创新实践_第2页
多源信息融合赋能:非合作航天器相对位姿测量技术的深度剖析与创新实践_第3页
多源信息融合赋能:非合作航天器相对位姿测量技术的深度剖析与创新实践_第4页
多源信息融合赋能:非合作航天器相对位姿测量技术的深度剖析与创新实践_第5页
已阅读5页,还剩15页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

一、引言1.1研究背景与意义随着航天技术的飞速发展,航天器的任务需求日益多样化和复杂化。从早期简单的卫星发射与轨道运行,到如今在轨加注、在轨维护与装配、在轨模块更换等近距离操作任务,以及太空垃圾清理、航天器交会对接等关键任务,这些都对航天器的相对导航技术提出了极高的要求。特别是在非合作航天器的操作中,由于无法事先在目标航天器上安装合作标识或通信设备,如何精确测量其相对位姿成为了实现各类空间任务的关键难题。在实际的空间环境中,非合作航天器的相对位姿测量面临着诸多挑战。一方面,太空环境复杂多变,存在着强烈的辐射、微流星体撞击、高低温交变等恶劣条件,这些因素会对测量设备和传感器造成严重的影响,降低其性能和可靠性。另一方面,非合作航天器本身的特性也增加了测量的难度,如目标航天器的形状不规则、表面材质多样、姿态运动复杂等,使得传统的测量方法难以准确获取其相对位姿信息。为了应对这些挑战,多源信息融合技术应运而生,并逐渐成为解决非合作航天器相对位姿测量问题的关键手段。多源信息融合技术通过对来自不同传感器的信息进行综合处理和分析,充分发挥各传感器的优势,弥补单一传感器的不足,从而提高测量的精度和可靠性。例如,相机可以获取目标航天器的高分辨率图像,提供丰富的纹理和形状信息,但容易受到光照条件的影响;激光雷达则能够精确测量目标的距离信息,具有较高的测距精度和稳定性,但数据分辨率较低,点云稀疏。将相机和激光雷达的信息进行融合,可以实现优势互补,获取更全面、准确的目标相对位姿信息。多源信息融合技术在非合作航天器相对位姿测量中的应用具有重要的意义。在太空垃圾清理任务中,精确测量太空垃圾的相对位姿是实现有效捕获和清理的前提。通过融合多种传感器的信息,可以提高对太空垃圾位姿的测量精度,降低碰撞风险,保障其他航天器的安全运行。在航天器交会对接任务中,准确掌握主、副航天器的相对位姿信息是实现成功对接的关键。多源信息融合技术能够提供更可靠的位姿测量结果,提高交会对接的成功率,减少任务失败带来的巨大损失。在在轨维护与装配等任务中,精确的相对位姿测量有助于操作人员更好地进行操作,提高任务效率和质量。多源信息融合技术在非合作航天器相对位姿测量中的研究具有重要的现实意义和广阔的应用前景。通过深入研究该技术,可以为我国航天事业的发展提供关键技术支持,推动我国在空间操作、太空探索等领域取得更大的突破。1.2国内外研究现状在多源信息融合技术的发展历程中,国外的研究起步较早,在理论和应用方面都取得了显著的成果。美国在多源信息融合技术的研究与应用上处于世界领先地位,其在军事、航空航天、智能交通等领域的应用已经相当成熟。例如,在军事领域,美国的导弹防御系统通过融合雷达、卫星、红外等多种传感器的信息,实现了对目标的高精度跟踪和识别,大大提高了导弹防御的成功率。在航空航天领域,美国国家航空航天局(NASA)的一些深空探测任务中,利用多源信息融合技术对探测器获取的图像、光谱、雷达等数据进行综合分析,成功实现了对行星表面的高精度测绘和资源探测。欧盟也在积极开展多源信息融合技术的研究与应用,特别是在智能交通和环境监测领域取得了一定的进展。例如,欧盟的一些城市通过融合交通摄像头、地磁传感器、车辆定位系统等多源信息,实现了对城市交通流量的实时监测和智能调控,有效缓解了交通拥堵问题。国内在多源信息融合技术方面的研究虽然起步相对较晚,但近年来发展迅速,在理论研究和实际应用方面都取得了长足的进步。在理论研究方面,国内的科研机构和高校在信息融合算法、模型和架构等方面开展了深入的研究,提出了许多具有创新性的理论和方法。例如,一些学者提出了基于深度学习的多源信息融合算法,通过构建深度神经网络模型,实现了对多源数据的自动特征提取和融合,提高了信息融合的效率和精度。在实际应用方面,多源信息融合技术在国内的军事、航天、交通、医疗等领域得到了广泛的应用。在军事领域,我国的防空系统通过融合多种雷达和电子侦察设备的信息,实现了对空中目标的全方位监测和跟踪,提高了防空作战的能力。在航天领域,我国的载人航天工程和月球探测工程中,利用多源信息融合技术对航天器的姿态、轨道和环境等信息进行综合处理,保障了任务的顺利进行。在非合作航天器位姿测量方面,国外的研究主要集中在基于光学、激光和射频等多种测量技术的融合应用。美国的一些研究机构和高校通过融合光学相机和激光雷达的信息,实现了对非合作航天器的高精度位姿测量。例如,美国某大学的研究团队利用光学相机获取目标航天器的图像信息,通过图像处理算法提取目标的特征点,再结合激光雷达测量的距离信息,利用三角测量原理计算出目标航天器的相对位姿。欧洲航天局也在开展相关的研究工作,通过融合多种传感器的信息,实现了对非合作航天器的自主跟踪和位姿测量。国内在非合作航天器位姿测量方面的研究也取得了一系列的成果。一些高校和科研机构通过融合视觉、激光和惯性等多种传感器的信息,提出了多种非合作航天器位姿测量方法。例如,哈尔滨工业大学的研究团队提出了一种基于双目视觉和激光雷达融合的非合作航天器位姿测量方法,该方法利用双目视觉获取目标航天器的图像信息,通过特征提取和匹配算法得到目标的二维坐标,再结合激光雷达测量的距离信息,实现了对目标航天器的三维位姿测量。中国科学院的一些研究机构也在开展相关的研究工作,通过融合多种传感器的信息,实现了对非合作航天器的高精度位姿测量和跟踪。尽管国内外在多源信息融合技术和非合作航天器位姿测量方面取得了一定的成果,但仍然存在一些不足之处。在多源信息融合技术方面,信息融合的精度和可靠性还有待进一步提高,特别是在复杂环境下,多源信息之间的冲突和不确定性问题仍然较为突出。在非合作航天器位姿测量方面,现有的测量方法在测量精度、实时性和鲁棒性等方面还不能完全满足实际应用的需求,特别是在面对目标航天器的复杂运动和空间环境的干扰时,测量精度会受到较大的影响。1.3研究目标与内容本研究旨在通过深入探索多源信息融合技术,攻克非合作航天器相对位姿测量的关键难题,实现高精度、实时性和鲁棒性的位姿测量,为我国航天领域的相关任务提供坚实的技术支撑。具体研究内容如下:多源传感器信息获取与预处理:针对非合作航天器的特性,选用合适的传感器,如光学相机、激光雷达、惯性测量单元(IMU)等,获取其相对位姿信息。对传感器获取的原始数据进行预处理,包括去噪、滤波、校准等操作,以提高数据的质量和可靠性。研究不同传感器数据的特点和噪声模型,采用相应的算法进行处理,去除噪声和干扰,提高数据的准确性。多源信息融合算法研究:深入研究各种多源信息融合算法,如卡尔曼滤波、粒子滤波、神经网络等,结合非合作航天器相对位姿测量的实际需求,选择并改进合适的算法。提出一种基于改进卡尔曼滤波的多源信息融合算法,充分考虑不同传感器数据的不确定性和相关性,实现对非合作航天器相对位姿的精确估计。研究如何有效地融合不同类型的传感器数据,提高融合算法的精度和鲁棒性,解决数据冲突和不确定性问题。非合作航天器位姿解算模型建立:根据多源信息融合的结果,建立非合作航天器的位姿解算模型。研究基于几何模型和运动学模型的位姿解算方法,利用传感器获取的信息,通过数学计算求解非合作航天器的相对位置和姿态。结合目标航天器的几何特征和运动规律,建立精确的位姿解算模型,提高位姿测量的精度和可靠性。实验验证与系统性能评估:搭建实验平台,对所提出的基于多源信息融合的非合作航天器相对位姿测量方法进行实验验证。利用模拟目标和实际航天器进行实验,采集数据并进行分析,评估系统的性能指标,如测量精度、实时性、鲁棒性等。通过实验验证,不断优化算法和模型,提高系统的性能和可靠性,为实际应用提供依据。实际应用场景分析与拓展:分析基于多源信息融合的非合作航天器相对位姿测量技术在实际航天任务中的应用场景,如太空垃圾清理、航天器交会对接、在轨维护等。研究如何将该技术与其他航天技术相结合,拓展其应用范围,提高航天任务的效率和成功率。针对不同的应用场景,提出相应的解决方案和优化策略,推动该技术的实际应用和发展。1.4研究方法与技术路线文献研究法:广泛搜集国内外关于多源信息融合技术、非合作航天器相对位姿测量的相关文献资料,全面了解该领域的研究现状、技术发展趋势以及存在的问题。通过对文献的深入分析,总结前人的研究成果和经验,为本文的研究提供理论基础和技术参考。对卡尔曼滤波、粒子滤波等多源信息融合算法的相关文献进行研究,了解其原理、应用场景和优缺点,为后续算法的选择和改进提供依据。实验分析法:搭建实验平台,开展相关实验研究。利用光学相机、激光雷达、惯性测量单元(IMU)等传感器获取非合作航天器的多源信息,并对传感器数据进行预处理和融合实验。通过实验,验证所提出的多源信息融合算法和位姿解算模型的有效性和可靠性,分析实验结果,找出存在的问题并进行优化。在暗室环境下,利用双目相机和激光雷达对模拟的非合作航天器进行位姿测量实验,对比不同算法和模型的测量精度,评估系统的性能。模型构建法:根据多源信息融合的原理和非合作航天器相对位姿测量的需求,建立相应的数学模型和算法模型。通过对模型的求解和分析,实现对非合作航天器相对位姿的精确估计。建立基于改进卡尔曼滤波的多源信息融合模型,结合不同传感器的测量数据,对非合作航天器的相对位置和姿态进行实时估计。技术路线:本研究的技术路线如图1所示,首先通过文献研究,明确研究方向和关键技术问题,确定选用光学相机、激光雷达、IMU等传感器用于获取非合作航天器的多源信息。对传感器获取的原始数据进行去噪、滤波、校准等预处理操作,以提高数据质量。接着,深入研究卡尔曼滤波、粒子滤波、神经网络等多源信息融合算法,结合非合作航天器相对位姿测量的实际需求,选择并改进合适的算法,对预处理后的多源数据进行融合处理。根据融合后的信息,建立基于几何模型和运动学模型的位姿解算模型,通过数学计算求解非合作航天器的相对位置和姿态。搭建实验平台,利用模拟目标和实际航天器进行实验,对所提出的方法进行实验验证,采集实验数据并进行分析,评估系统的测量精度、实时性、鲁棒性等性能指标。根据实验结果,对算法和模型进行优化和改进,最终形成一套完整的基于多源信息融合的非合作航天器相对位姿测量技术体系,并分析其在实际航天任务中的应用场景和拓展方向。[此处插入技术路线图1,图中清晰展示从文献研究到实验验证与应用拓展的流程,各步骤之间用箭头连接,明确先后顺序和逻辑关系]二、多源信息融合技术基础2.1多源信息融合的概念与原理多源信息融合,又被称为多传感器信息融合,是一种对来自多个不同传感器、数据库、知识库等信息源的数据进行综合处理与分析的技术。其核心目的是通过整合多源信息,消除信息间的冗余与矛盾,进而获取对目标或环境更全面、准确且可靠的描述与理解,为后续的决策和控制提供坚实的依据。美国电气与电子工程师协会(IEEE)将多源信息融合定义为:“多源信息融合是利用计算机技术对按时序获得的若干传感器的观测信息,在一定准则下加以自动分析、综合,以完成所需的决策和估计任务而进行的信息处理过程。”从本质上讲,多源信息融合技术模拟了人类大脑处理信息的方式,人类通过视觉、听觉、触觉、嗅觉等多种感官获取外界信息,并在大脑中进行综合分析,从而形成对周围环境的认知。多源信息融合技术则是借助计算机和算法,将来自不同传感器的信息进行类似的综合处理,以实现对目标的精确感知和理解。多源信息融合技术的原理基于信息的互补性、冗余性和相关性。不同类型的传感器由于其工作原理和特性的差异,能够获取关于目标或环境的不同方面的信息,这些信息之间具有互补性。例如,光学相机能够获取目标的纹理、颜色和形状等视觉信息,而激光雷达则擅长测量目标的距离和三维空间位置信息。将光学相机和激光雷达的信息进行融合,可以获得目标更全面的信息,弥补单一传感器的不足。多个传感器对同一目标或环境进行观测时,可能会获取到部分重叠的信息,这些冗余信息可以提高信息的可靠性和准确性。在目标跟踪中,多个传感器同时对目标的位置进行测量,通过对这些冗余测量信息的融合,可以降低测量误差,提高目标位置估计的精度。多源信息之间还存在着相关性,通过挖掘和利用这些相关性,可以进一步提高信息融合的效果。例如,在智能交通系统中,车辆的速度、加速度和行驶方向等信息之间存在着一定的相关性,通过对这些相关信息的融合分析,可以更好地预测车辆的行驶轨迹和行为。多源信息融合的基本过程通常包括数据采集、数据预处理、数据融合和融合结果评估四个主要步骤。在数据采集阶段,需要根据具体的应用需求和目标,选择合适的传感器类型和数量,并合理布置传感器的位置,以确保能够获取到全面、准确的信息。对于非合作航天器相对位姿测量,可能需要选择光学相机、激光雷达、惯性测量单元(IMU)等多种传感器。数据采集过程中,还需要考虑传感器的精度、分辨率、采样频率等性能指标,以及传感器之间的时空同步问题,以保证采集到的数据具有一致性和可靠性。采集到的原始数据往往包含噪声、干扰和误差等不良因素,会影响后续的信息融合效果。因此,在数据预处理阶段,需要对原始数据进行去噪、滤波、校准、归一化等处理操作,以提高数据的质量和可用性。可以采用均值滤波、中值滤波等方法去除噪声,通过传感器校准技术消除传感器的系统误差,对数据进行归一化处理,使其具有相同的量纲和尺度。数据融合是多源信息融合的核心步骤,根据具体的应用场景和需求,选择合适的融合算法和模型,对预处理后的数据进行融合处理,以得到更准确、更全面的信息。常见的融合算法包括卡尔曼滤波、粒子滤波、神经网络、D-S证据理论等。在非合作航天器相对位姿测量中,可以利用卡尔曼滤波算法对光学相机和激光雷达的数据进行融合,以估计航天器的相对位姿。融合结果评估是对融合后信息的准确性、可靠性和有效性进行评估和验证,通过与真实值或其他参考数据进行对比分析,计算相关的性能指标,如误差、精度、召回率等,以判断融合结果是否满足应用需求。如果融合结果不理想,需要对融合算法、模型或数据进行调整和优化,直到达到满意的效果。2.2融合模型与结构在多源信息融合技术中,融合模型与结构是实现信息有效融合的关键要素,不同的融合模型和结构具有各自的特点和适用场景。从融合模型的角度来看,主要包括数据级融合、特征级融合和决策级融合三种类型。数据级融合是最底层的融合方式,它直接对来自不同传感器的原始数据进行融合处理。在图像融合领域,将多个相机拍摄的同一场景的原始图像数据进行融合,以获取更清晰、更全面的图像信息。这种融合方式的优点是能够保留原始数据的全部细节信息,充分利用传感器数据的互补性,从而提高融合结果的精度和可靠性。由于原始数据量通常较大,数据级融合对计算资源和通信带宽的要求较高,处理过程较为复杂,且容易受到噪声和干扰的影响。如果某个传感器的数据存在较大误差或噪声,可能会对整个融合结果产生较大的负面影响。特征级融合则是在数据级融合的基础上,先对各个传感器的原始数据进行特征提取,然后将提取出的特征进行融合。在目标识别任务中,从光学相机图像中提取目标的形状、纹理等特征,从激光雷达数据中提取目标的距离、速度等特征,再将这些特征进行融合,以提高目标识别的准确性。特征级融合的优势在于能够降低数据处理的复杂度,减少数据传输量,因为特征信息通常比原始数据更具代表性和抽象性。通过特征融合,可以更好地利用不同传感器数据的互补特征,提高系统的识别和分类能力。然而,特征提取的过程需要针对不同的传感器和应用场景进行优化,选择合适的特征提取算法和参数,这对技术人员的专业知识和经验要求较高。如果特征提取不准确或不完整,可能会影响融合效果和后续的决策。决策级融合是最高层次的融合方式,它是在各个传感器独立进行处理和决策的基础上,将这些决策结果进行融合。在自动驾驶系统中,摄像头识别出前方有行人,激光雷达也检测到前方有障碍物,将这两个决策结果进行融合,以做出更准确的行驶决策。决策级融合的优点是对通信带宽和计算资源的要求相对较低,因为只需要传输和处理决策结果,而不是大量的原始数据或特征信息。这种融合方式具有较强的鲁棒性和容错性,当某个传感器出现故障或决策失误时,其他传感器的决策结果仍可能对最终决策产生影响,从而保证系统的可靠性。决策级融合需要合理地分配各个传感器决策结果的权重,以及选择合适的融合规则,这需要根据具体的应用场景和需求进行深入研究和优化。如果权重分配不合理或融合规则不恰当,可能会导致决策失误或降低系统的性能。从融合结构的角度来看,常见的有集中式、分布式和混合式融合结构。集中式融合结构是将所有传感器采集到的原始数据直接传输到一个中央处理器进行融合处理。在早期的一些简单多传感器系统中,各个传感器将数据直接发送到中央计算机,由中央计算机完成所有的数据融合和处理任务。这种结构的优点是结构简单,易于实现,融合算法相对灵活,可以充分利用所有的原始数据进行处理,从而获得较高的数据处理精度。随着传感器数量的增加和数据量的增大,集中式融合结构会导致中央处理器的计算和通信负载过重,系统的实时性和可靠性受到严重影响。一旦中央处理器出现故障,整个系统将无法正常工作,系统的容错性较差。分布式融合结构则是各个传感器先利用各自的处理器对原始数据进行局部处理,然后将处理结果传输到中央处理器进行融合。在智能交通系统中,每个路口的交通传感器先对本地的交通数据进行初步分析和处理,如统计车流量、车速等信息,然后将这些处理结果上传到交通管理中心进行融合和综合分析。分布式融合结构的优势在于对通信带宽的要求较低,因为传输的是经过局部处理的数据,而不是大量的原始数据。每个传感器都具有一定的自主处理能力,即使某个传感器出现故障,其他传感器仍能正常工作,系统的可靠性和容错性较高,计算速度也相对较快。由于各个传感器独立进行局部处理,可能会导致信息的不一致性和冗余性增加,而且中央处理器无法直接访问原始数据,对于一些需要深入分析原始数据的应用场景可能不太适用。混合式融合结构是集中式和分布式融合结构的结合,即部分传感器采用集中式融合架构,其余传感器采用分布式融合架构。在一个复杂的航天监测系统中,对于一些对实时性和精度要求较高的关键传感器数据,采用集中式融合结构,直接将原始数据传输到中央处理器进行处理;而对于一些对实时性要求相对较低、数据量较大的辅助传感器数据,则采用分布式融合结构,先进行局部处理,再将结果传输到中央处理器进行融合。这种结构结合了集中式和分布式融合结构的优点,既能够保证关键数据的处理精度和实时性,又能够提高系统的可靠性和容错性,降低通信带宽和计算资源的压力。混合式融合结构的设计和实现较为复杂,需要合理地划分传感器的融合方式,以及协调不同融合架构之间的数据传输和处理流程。2.3常用融合方法与算法2.3.1基于统计学的方法基于统计学的方法在多源信息融合中占据着重要地位,其中贝叶斯估计和最大似然估计是两种典型且应用广泛的方法。贝叶斯估计以贝叶斯定理为基石,其核心思想是将待估计的参数视为随机变量,并为其赋予一个先验分布。先验分布代表了在获取观测数据之前,我们对参数的已有认知和信念。随着新的观测数据不断涌入,利用贝叶斯公式将先验分布与数据的似然函数相结合,从而更新对参数的估计,得到后验分布。假设我们要估计非合作航天器的轨道参数,先根据以往的航天任务经验和相关理论知识,为轨道参数设定一个先验分布。当通过光学相机、雷达等传感器获取到关于航天器位置、速度等观测数据后,运用贝叶斯公式,将这些观测数据的似然函数与先验分布进行融合,进而得到轨道参数的后验分布。这个后验分布综合了先验信息和最新的观测数据,能够更准确地描述轨道参数的真实状态。贝叶斯估计具有显著的优势,它能够充分融合先验知识和实时观测数据,这在数据量有限或噪声干扰较大的情况下尤为重要。在早期对某新型非合作航天器进行探测时,由于获取的数据量较少,单纯依靠观测数据进行参数估计可能会产生较大的误差。而贝叶斯估计通过引入先验知识,能够在有限的数据条件下,提供更为稳健和可靠的估计结果,降低估计的不确定性。贝叶斯估计还能够对参数的不确定性进行量化评估,通过后验分布的方差等统计量,我们可以清晰地了解到参数估计的精度和可靠性,为后续的决策和分析提供重要的参考依据。最大似然估计则是基于另一种思路,它的目标是寻找一组参数值,使得在这组参数下,观测数据出现的概率达到最大。在实际应用中,首先需要根据问题的背景和数据的特点,假设数据服从某种概率分布模型,如正态分布、泊松分布等。然后,构建关于参数的似然函数,该函数表示在给定参数值的情况下,观测数据出现的概率。通过对似然函数进行最大化求解,通常可以使用梯度下降、牛顿法等优化算法,得到使似然函数取最大值的参数估计值。在利用激光雷达测量非合作航天器的距离时,假设测量数据服从正态分布,其概率密度函数为P(x|\theta)=\frac{1}{\sqrt{2\pi\sigma^2}}e^{-\frac{(x-\mu)^2}{2\sigma^2}},其中x是测量得到的距离值,\theta=(\mu,\sigma^2)是需要估计的参数,分别表示距离的均值和方差。我们通过大量的测量数据,构建似然函数L(\theta)=\prod_{i=1}^{n}P(x_i|\theta),其中n是测量数据的数量,x_i是第i次测量得到的距离值。对似然函数进行对数变换,得到\lnL(\theta),然后通过求导等方法找到使\lnL(\theta)最大的\theta值,即为距离参数的最大似然估计值。最大似然估计的优点在于计算相对简便,不需要过多的先验知识,仅仅依赖于观测数据本身。在数据量足够大的情况下,根据大数定律,最大似然估计能够渐进地收敛到参数的真实值,具有良好的统计性质。这使得它在许多实际应用中,尤其是在对先验信息了解较少的情况下,成为一种非常实用的参数估计方法。在一些紧急的航天任务中,来不及获取详细的先验知识,此时最大似然估计可以快速地根据观测数据进行参数估计,为任务的决策提供及时的支持。2.3.2基于神经网络的方法神经网络凭借其强大的非线性映射能力,在多源信息融合领域展现出独特的优势和广阔的应用前景。神经网络由大量的神经元相互连接组成,这些神经元按照层次结构进行排列,通常包括输入层、隐藏层和输出层。在多源信息融合中,不同传感器获取的数据被作为输入信号传递到神经网络的输入层。这些数据可以是光学相机采集的图像像素值、激光雷达测量的距离信息、惯性测量单元输出的加速度和角速度等。输入层的神经元将这些原始数据传递给隐藏层,隐藏层中的神经元通过非线性激活函数对输入信号进行复杂的变换和处理,从而提取出数据中的深层特征。这些特征是对原始数据的高度抽象和概括,能够更有效地反映数据的内在规律和模式。经过隐藏层的多次处理后,最终的特征信息被传递到输出层,输出层根据具体的任务需求,如非合作航天器的位姿估计、目标识别等,给出融合后的结果。神经网络的训练是使其能够有效进行多源信息融合的关键环节。在训练过程中,需要使用大量的带有标签的样本数据,这些样本数据包含了不同传感器数据以及对应的真实位姿信息或目标类别等标签。训练的目标是通过不断调整神经网络的权重和偏置参数,使得网络的输出尽可能接近真实标签。这一过程通常采用反向传播算法来实现,反向传播算法通过计算网络输出与真实标签之间的误差,然后将误差从输出层反向传播到输入层,在这个过程中,根据误差对权重和偏置进行调整,使得误差逐渐减小。为了提高训练的效果和效率,还会采用一些优化策略,如随机梯度下降、Adagrad、Adadelta等优化算法,这些算法能够自适应地调整学习率,加快模型的收敛速度,避免陷入局部最优解。为了防止过拟合,通常会在训练过程中加入正则化项,如L1正则化和L2正则化,通过对权重进行约束,使得模型更加泛化,能够在未知数据上表现出良好的性能。在非合作航天器相对位姿测量中,神经网络可以学习到不同传感器数据之间复杂的非线性关系。光学相机图像中的纹理特征与激光雷达测量的距离信息之间可能存在着复杂的几何关系,神经网络能够自动捕捉到这些关系,并将它们融合起来,从而提高位姿测量的精度。通过大量的训练数据,神经网络可以学习到在不同光照条件、姿态角度下,如何准确地融合多源信息来估计航天器的位姿。与传统的基于手工设计特征和规则的方法相比,神经网络能够自动从数据中学习特征,避免了人工设计特征的局限性和主观性,能够更好地适应复杂多变的实际应用场景。2.3.3其他方法除了基于统计学和神经网络的方法外,还有一些其他的多源信息融合方法在处理不确定性和复杂信息时发挥着重要作用,包括模糊逻辑、证据理论和深度学习等。模糊逻辑方法利用模糊集合和模糊推理来处理信息的不确定性和模糊性。在多源信息融合中,不同传感器提供的信息可能具有不同的可信度和不确定性,模糊逻辑可以将这些不确定性进行量化表示。通过定义模糊集合,将传感器数据映射到相应的模糊集合中,然后利用模糊规则进行推理和决策。在判断非合作航天器是否处于某个特定的轨道区域时,来自不同传感器的轨道参数测量值可能存在一定的误差和不确定性。模糊逻辑可以将这些测量值转化为模糊集合,如“接近轨道区域”“远离轨道区域”等,通过设定一系列的模糊规则,如“如果传感器A测量的轨道半径接近标准值,且传感器B测量的轨道速度在一定范围内,则认为航天器接近轨道区域”,来综合判断航天器的轨道状态。模糊逻辑的优点在于能够直观地处理不确定性信息,不需要精确的数学模型,对于一些难以用传统数学方法描述的复杂问题具有很好的适应性。证据理论,如D-S证据理论,主要用于处理具有不确定性和不完全性的多源信息融合问题。它通过定义基本概率赋值函数(BPA)来表示对各个命题的信任程度,这些命题可以是关于非合作航天器的位姿、状态等。不同传感器提供的信息可以看作是对这些命题的不同证据,证据理论利用组合规则将多个证据进行合成,得到综合的信任度。在对非合作航天器的故障诊断中,来自不同传感器的故障信号可以作为不同的证据,每个证据都有其对应的基本概率赋值。通过D-S证据理论的组合规则,可以将这些证据进行融合,得到对航天器是否发生故障以及故障类型的综合判断。证据理论能够有效地处理证据之间的冲突和不确定性,提供更合理的决策依据。深度学习作为一种新兴的人工智能技术,在多源信息融合中也得到了广泛的应用。深度学习通过构建具有多个隐藏层的深度神经网络,能够自动学习到数据的高级抽象特征。在多源信息融合中,深度学习可以对不同类型的传感器数据进行深度融合,如将图像、语音、文本等多模态数据进行融合。在处理非合作航天器的监测数据时,深度学习模型可以同时学习光学相机图像中的视觉特征、雷达回波信号中的距离和速度特征等,通过对这些多源数据的深度融合,实现对航天器状态的更准确监测和分析。深度学习模型还具有强大的泛化能力和自适应能力,能够在不同的环境和任务条件下表现出良好的性能。三、非合作航天器相对位姿测量技术3.1测量原理与坐标系定义非合作航天器相对位姿测量的核心原理是通过对不同类型传感器获取的信息进行分析和处理,从而确定目标航天器相对于测量航天器的位置和姿态。位置信息通常用三维坐标来表示,描述了目标航天器在空间中的具体位置;姿态信息则用于描述目标航天器的方向,一般通过欧拉角(滚转角、俯仰角、偏航角)或四元数来表示。在测量过程中,为了准确描述和计算相对位姿,需要定义多个坐标系,这些坐标系之间存在着特定的转换关系。世界坐标系,通常用O_w-X_wY_wZ_w表示,是一个固定的全局参考坐标系,用于描述整个空间中物体的位置和运动。在航天领域,世界坐标系可以选择地心惯性坐标系(ECI),其原点位于地球质心,坐标轴指向固定的恒星方向。这种坐标系的选择使得在研究航天器的轨道运动时,能够方便地与地球的引力场模型相结合,准确描述航天器在太空中的位置和运动轨迹。在进行深空探测任务时,以太阳为中心建立的日心惯性坐标系也常被用作世界坐标系,便于研究探测器相对于太阳的位置和运动,以及与其他行星的相对位置关系。世界坐标系为整个测量过程提供了一个统一的基准,使得不同航天器之间的位置和姿态信息能够在同一参考框架下进行比较和分析。相机坐标系,记为O_c-X_cY_cZ_c,原点O_c位于相机的光心,Z_c轴与相机的光轴重合,指向相机的拍摄方向,X_c轴和Y_c轴分别与相机成像平面的水平和垂直方向平行。相机坐标系是从相机的角度来描述物体的位置,通过相机获取的图像信息,经过一系列的处理和计算,可以将图像中的像素坐标转换为相机坐标系下的三维坐标。在利用光学相机对非合作航天器进行观测时,首先需要确定相机坐标系与世界坐标系之间的转换关系,才能将相机拍摄到的目标航天器的图像信息转换为在世界坐标系下的位置和姿态信息。目标坐标系,用O_t-X_tY_tZ_t表示,原点O_t通常定义在目标航天器的质心位置,坐标轴的方向根据目标航天器的几何特征或特定的参考方向来确定。对于形状规则的目标航天器,如立方体卫星,可以将目标坐标系的坐标轴与卫星的棱边方向对齐;对于一些具有特定功能模块的航天器,也可以根据关键模块的方向来定义目标坐标系。目标坐标系的建立使得我们能够更直观地描述目标航天器自身的姿态和运动,以及相对于其他坐标系的位置关系。在进行非合作航天器的对接任务时,需要精确知道目标航天器的目标坐标系与测量航天器的相关坐标系之间的转换关系,以便准确控制测量航天器的运动,实现成功对接。从世界坐标系到相机坐标系的转换,涉及到旋转和平移操作。设世界坐标系到相机坐标系的旋转矩阵为R_{wc},平移向量为T_{wc},则世界坐标系中的点P_w(X_w,Y_w,Z_w)在相机坐标系中的坐标P_c(X_c,Y_c,Z_c)可以通过以下公式进行转换:\begin{bmatrix}X_c\\Y_c\\Z_c\end{bmatrix}=R_{wc}\begin{bmatrix}X_w\\Y_w\\Z_w\end{bmatrix}+T_{wc}旋转矩阵R_{wc}描述了两个坐标系之间的旋转关系,它由三个欧拉角(或四元数)确定,可以通过对相机的安装姿态进行测量和计算得到。平移向量T_{wc}则表示两个坐标系原点之间的相对位置,通常通过测量相机在世界坐标系中的位置来确定。从相机坐标系到目标坐标系的转换同样包含旋转和平移。设相机坐标系到目标坐标系的旋转矩阵为R_{ct},平移向量为T_{ct},相机坐标系中的点P_c(X_c,Y_c,Z_c)在目标坐标系中的坐标P_t(X_t,Y_t,Z_t)的转换公式为:\begin{bmatrix}X_t\\Y_t\\Z_t\end{bmatrix}=R_{ct}\begin{bmatrix}X_c\\Y_c\\Z_c\end{bmatrix}+T_{ct}确定R_{ct}和T_{ct}需要先对目标航天器的几何形状和姿态进行分析,通过图像处理、特征提取等技术手段,找到目标航天器在相机图像中的特征点,并结合相机的标定参数,计算出相机坐标系与目标坐标系之间的转换关系。在实际应用中,由于测量噪声、目标航天器的运动等因素的影响,这些转换关系的计算需要采用合适的算法进行优化和修正,以提高相对位姿测量的精度和可靠性。3.2基于单一传感器的测量方法及局限性3.2.1视觉测量方法视觉测量方法在非合作航天器相对位姿测量中占据重要地位,其中双目相机是一种常用的视觉测量设备。双目相机的测量原理基于三角测量原理,通过模拟人类双眼的视觉机制,利用两台相机从不同角度对目标航天器进行观测,从而获取目标的三维信息。假设两台相机的光心分别为O_1和O_2,它们之间的距离为基线b。对于空间中的目标点P,在左相机成像平面上的像点为p_1,在右相机成像平面上的像点为p_2。根据相似三角形原理,有以下关系:\frac{Z}{b}=\frac{f}{x_1-x_2}其中,Z为目标点P到相机平面的距离,f为相机的焦距,x_1和x_2分别为像点p_1和p_2在各自成像平面上的横坐标,x_1-x_2称为视差。通过测量视差,并结合相机的焦距和基线长度,就可以计算出目标点P的深度信息Z。再利用相机的成像模型和坐标变换关系,就能够进一步确定目标点P在世界坐标系中的三维坐标。在实际应用中,图像特征提取与匹配是双目相机视觉测量的关键步骤。图像特征提取是从图像中提取出具有代表性的特征点或特征区域,这些特征应具有独特性、稳定性和可重复性,以便在不同图像之间进行准确匹配。常见的图像特征提取算法包括尺度不变特征变换(SIFT)、加速稳健特征(SURF)、定向FAST和旋转BRIEF(ORB)等。SIFT算法通过构建尺度空间,在不同尺度下检测图像中的极值点,并计算其特征描述子,具有良好的尺度不变性和旋转不变性,但计算复杂度较高,实时性较差。SURF算法则在SIFT算法的基础上进行了改进,采用了积分图像和Haar小波特征,大大提高了计算速度,同时保持了较好的特征提取性能。ORB算法结合了FAST特征点检测和BRIEF特征描述子,具有计算速度快、占用内存小等优点,非常适合在实时性要求较高的场景中应用。图像特征匹配是将左、右相机图像中提取的特征点进行对应匹配,以确定同一目标点在不同图像中的位置。常用的特征匹配算法有基于欧氏距离的最近邻匹配、基于汉明距离的匹配等。在基于欧氏距离的最近邻匹配中,通过计算两个特征点的特征描述子之间的欧氏距离,将距离最小的两个特征点视为匹配点。基于汉明距离的匹配则适用于二进制特征描述子,如ORB算法生成的特征描述子,通过计算两个二进制特征描述子之间的汉明距离来进行匹配,具有计算速度快的优势。然而,视觉测量方法也存在一些局限性。光照条件的变化对视觉测量精度有着显著的影响。在太空环境中,由于太阳光照的强烈变化以及目标航天器表面的反射特性不同,相机获取的图像可能会出现过亮、过暗、阴影等问题,从而导致图像特征提取和匹配的准确性下降。当目标航天器表面的一部分处于阴影区域时,该区域的图像特征可能会变得模糊或丢失,使得在特征提取和匹配过程中无法准确识别这些区域的特征点,进而影响相对位姿的测量精度。视觉测量方法对目标航天器的表面纹理和形状也有一定的要求。如果目标航天器表面纹理过于简单或形状不规则,可能会导致图像特征提取困难,难以找到足够的特征点进行匹配,从而降低测量的准确性和可靠性。对于一些表面光滑、没有明显纹理的非合作航天器,传统的视觉测量方法可能无法准确测量其相对位姿。3.2.2激光雷达测量方法激光雷达是一种通过发射激光束并测量反射光的时间来获取目标距离信息的传感器,在非合作航天器相对位姿测量中发挥着重要作用。其测量位姿的原理主要基于点云数据的处理和分析。激光雷达发射的激光束在遇到目标航天器表面时会发生反射,传感器接收反射光并记录激光脉冲从发射到接收的时间差\Deltat,根据光速c是已知常量,利用公式d=c\times\Deltat/2(其中d为目标距离),就可以计算出激光雷达与目标航天器表面各点之间的距离。通过在不同角度发射激光脉冲,并对返回的反射光进行测量和计算,激光雷达能够获取目标航天器表面的大量离散点的三维坐标信息,这些点构成了点云数据。在获取点云数据后,需要通过一系列算法来提取目标航天器的位姿信息。常用的方法是基于迭代最近点(ICP)算法,该算法的基本思想是通过不断迭代寻找两组点云之间的最优匹配关系,从而计算出目标航天器的旋转和平移矩阵,进而得到其相对位姿。首先,选取一组参考点云(可以是事先测量得到的目标航天器的标准模型点云,也可以是前一时刻测量得到的点云),然后将当前测量得到的点云与参考点云进行匹配。在每次迭代中,ICP算法通过寻找当前点云中每个点在参考点云中的最近邻点,构建对应点对。利用这些对应点对,通过最小化点对之间的距离误差,使用奇异值分解(SVD)等方法计算出当前点云相对于参考点云的旋转矩阵R和平移向量T。将当前点云根据计算得到的旋转和平移进行变换,使其与参考点云更加接近。不断重复上述过程,直到点云之间的距离误差收敛到一定阈值以下,此时得到的旋转矩阵R和平移向量T即为目标航天器相对于参考坐标系的位姿。尽管激光雷达在非合作航天器相对位姿测量中具有一定的优势,如测距精度高、不受光照条件影响等,但也存在一些局限性。激光雷达获取的点云数据通常比较稀疏,特别是在远距离测量或目标表面反射特性较差的情况下。稀疏的点云数据可能无法完整地描述目标航天器的形状和结构,导致在进行位姿解算时丢失重要信息,从而影响测量精度。当目标航天器表面存在大面积的光滑平面或低反射率区域时,激光雷达返回的点云数据在这些区域会非常稀疏,使得基于点云匹配的位姿解算算法难以准确找到对应点对,进而降低位姿测量的准确性。激光雷达点云数据本身不包含目标航天器的纹理信息,这在一些需要对目标进行详细识别和分析的场景中是一个明显的不足。纹理信息对于区分目标航天器的不同部分、识别关键特征等具有重要作用,缺乏纹理信息会限制激光雷达在某些应用中的性能。在对非合作航天器进行故障诊断时,纹理信息可能有助于发现航天器表面的损伤或异常,但激光雷达无法提供这方面的信息。3.3面临的挑战在非合作航天器相对位姿测量的实际应用中,面临着诸多复杂且严峻的挑战,这些挑战严重影响着测量的准确性、实时性和可靠性。非合作航天器由于其本身不具备人工设计的特殊标志物和主动应答机等合作机构,使得测量过程缺乏明确的标识和信息反馈,这给测量工作带来了极大的困难。由于缺乏合作标识,在利用视觉测量方法时,难以通过预设的特征点或标志进行快速准确的识别和匹配,增加了图像特征提取和匹配的难度。对于形状不规则、表面材质复杂的非合作航天器,传统的特征提取算法可能无法有效地提取出稳定、可靠的特征,导致测量精度下降。当目标航天器表面存在大面积的光滑金属区域或复杂的纹理图案时,视觉传感器获取的图像可能会出现反射眩光、纹理混淆等问题,使得基于图像的位姿测量方法难以准确识别目标特征,进而影响位姿解算的准确性。非合作航天器的运动状态往往是未知的,其可能存在平移、旋转、翻滚等复杂的运动形式,且运动速度和加速度也可能随时发生变化。这种未知的运动状态使得测量系统难以建立准确的运动模型,从而增加了位姿测量的不确定性。在利用激光雷达进行测量时,目标航天器的快速旋转可能导致激光点云数据的严重畸变,使得基于点云匹配的位姿解算算法无法准确找到对应点对,进而影响位姿测量的精度。如果目标航天器在测量过程中突然改变运动方向或速度,测量系统可能无法及时跟踪和调整,导致测量结果出现较大误差。在许多航天任务中,如航天器交会对接、在轨捕获等,对非合作航天器相对位姿测量的实时性要求极高。需要在短时间内快速获取准确的位姿信息,以便及时调整测量航天器的运动轨迹和姿态,确保任务的顺利进行。然而,现有的测量方法和算法在处理大量传感器数据时,往往需要较长的计算时间,难以满足实时性的要求。一些基于深度学习的多源信息融合算法虽然在精度上有一定优势,但由于其计算复杂度高,需要大量的计算资源和时间进行模型训练和推理,在实时性要求较高的场景中应用受到限制。实时性要求还对测量系统的硬件性能提出了更高的挑战,需要采用高性能的处理器、快速的数据传输接口等硬件设备来支持快速的数据处理和传输。对于非瞬时成像的测量传感器,如线阵激光雷达、扫描式相机等,当目标航天器处于运动状态时,会产生运动畸变。在利用线阵激光雷达对旋转的非合作航天器进行测量时,由于激光雷达是逐行扫描获取点云数据,在扫描过程中目标航天器的运动会导致不同行的点云数据在时间上存在差异,从而使得点云数据发生畸变,无法准确反映目标航天器的真实形状和位姿。运动畸变会导致测量数据的误差增大,使得基于这些数据的位姿解算结果出现偏差,严重影响测量的准确性和可靠性。为了克服运动畸变的影响,需要对测量数据进行复杂的运动补偿处理,但这又增加了测量系统的复杂性和计算量。四、基于多源信息融合的测量方案设计4.1传感器选型与配置在基于多源信息融合的非合作航天器相对位姿测量系统中,传感器的选型与配置是至关重要的环节,直接影响着测量的精度、可靠性和实时性。经过综合考量,本研究选用双目相机和激光雷达作为主要的测量传感器,并对它们进行合理的搭载配置,以实现优势互补,提高相对位姿测量的性能。双目相机在非合作航天器相对位姿测量中具有独特的优势。它能够获取目标航天器的高分辨率图像,提供丰富的纹理和形状信息,这对于识别目标航天器的特征和结构非常关键。通过对图像的处理和分析,可以提取出目标航天器的边缘、角点等特征点,利用这些特征点进行匹配和三角测量,从而计算出目标航天器的相对位姿。在目标航天器的表面存在一些独特的几何特征,如卫星的太阳能板边缘、对接环等,双目相机能够清晰地捕捉到这些特征,为后续的位姿解算提供准确的信息。双目相机的测量原理基于三角测量,具有较高的测量精度,特别是在近距离测量时,能够满足对非合作航天器相对位姿测量的精度要求。而且,双目相机的成本相对较低,体积小、重量轻,便于在航天器上进行搭载和安装。激光雷达则在距离测量方面表现出色,能够精确地获取目标航天器的距离信息,生成点云数据,从而构建目标航天器的三维模型。激光雷达发射的激光束在遇到目标航天器表面时会发生反射,通过测量激光脉冲从发射到接收的时间差,结合光速,可以准确计算出目标点与激光雷达之间的距离。这种直接测量距离的方式使得激光雷达在测距精度上具有明显的优势,不受光照条件的影响,能够在复杂的太空环境中稳定工作。在目标航天器处于不同的光照条件下,如被太阳直射或处于阴影区域,激光雷达都能够准确地测量距离,为相对位姿测量提供可靠的距离数据。激光雷达获取的点云数据能够直观地反映目标航天器的三维结构,对于形状不规则的非合作航天器,通过点云数据的处理和分析,可以更好地理解其几何形状和姿态,提高位姿测量的准确性。为了充分发挥双目相机和激光雷达的优势,需要对它们进行合理的搭载配置。在硬件安装方面,将双目相机和激光雷达安装在测量航天器的同一侧,并且保证它们的视场有一定的重叠区域。这样可以确保在对非合作航天器进行观测时,两种传感器能够同时获取目标航天器的信息,便于后续的信息融合处理。调整双目相机和激光雷达的安装角度,使它们能够覆盖目标航天器可能出现的空间范围,提高测量的可靠性。在软件同步方面,建立双目相机和激光雷达的数据同步机制,确保它们在同一时刻获取的关于目标航天器的信息能够准确对应。通过精确的时间同步和数据标记,使得在进行信息融合时,能够将同一时刻的图像信息和点云数据进行有效的结合,避免因时间不同步而导致的误差。还需要对双目相机和激光雷达的测量数据进行统一的坐标转换,将它们转换到同一个坐标系下,以便进行后续的融合计算。通常可以选择以测量航天器的质心为原点建立坐标系,将双目相机和激光雷达获取的数据都转换到这个坐标系中,方便进行数据处理和位姿解算。4.2信息融合策略本研究设计了一种分阶段、多层次的信息融合策略,充分发挥双目相机和激光雷达的优势,以实现对非合作航天器相对位姿的高精度测量。在初始阶段,主要利用双目相机获取非合作航天器的初步位姿信息。双目相机凭借其高分辨率图像获取能力,能够清晰地捕捉到目标航天器的表面纹理和几何特征。通过先进的图像特征提取算法,如改进的尺度不变特征变换(SIFT)算法,该算法在传统SIFT算法的基础上,针对太空环境下的图像特点,对特征点检测和描述子计算进行了优化,能够更准确地提取目标航天器的关键特征点。利用这些特征点,采用基于区域匹配和特征约束的立体匹配算法,该算法结合了区域的灰度信息和特征点的几何约束,提高了匹配的准确性和稳定性,实现左右图像的特征点匹配。根据三角测量原理,通过匹配点对的视差计算,能够初步解算出目标航天器在相机坐标系下的三维坐标,进而得到其相对位姿的初步估计值。在获取初步位姿后,引入激光雷达的点云数据进行精确位姿确定。激光雷达能够提供高精度的距离信息,生成目标航天器的点云数据,这些点云数据能够直观地反映目标航天器的三维结构。将双目相机初步估计的位姿作为初始值,利用迭代最近点(ICP)算法的改进版本,该改进算法在传统ICP算法的基础上,增加了点云特征约束和全局优化策略,提高了算法的收敛速度和精度,对激光雷达点云数据与预先建立的目标航天器点云模型进行匹配。通过不断迭代优化,寻找两组点云之间的最优匹配关系,从而精确计算出目标航天器的旋转矩阵和平移向量,得到其在世界坐标系下的精确相对位姿。在整个信息融合过程中,还引入了时间序列信息进行动态融合。利用卡尔曼滤波算法对不同时刻的位姿估计值进行融合处理,该算法能够充分考虑系统的动态特性和测量噪声,通过预测和更新两个步骤,不断优化位姿估计结果。在预测步骤中,根据前一时刻的位姿估计值和系统的运动模型,预测当前时刻的位姿;在更新步骤中,将当前时刻的测量值与预测值进行融合,得到更准确的位姿估计。通过这种方式,不仅能够提高位姿测量的精度,还能够增强系统对目标航天器运动变化的跟踪能力,适应非合作航天器复杂多变的运动状态。4.3数据处理流程本研究的基于多源信息融合的非合作航天器相对位姿测量的数据处理流程主要包含传感器数据采集、预处理、特征提取到融合计算位姿这几个关键步骤。在传感器数据采集阶段,选用的双目相机和激光雷达开始工作。双目相机通过光学成像原理,将目标航天器的光学信息转化为电信号,进而生成数字图像数据。其以一定的帧率持续拍摄目标航天器,获取不同时刻的图像序列,这些图像包含了目标航天器的丰富视觉信息,如表面纹理、形状轮廓以及可能存在的特征标识等。激光雷达则发射激光束,激光束在遇到目标航天器表面后反射回来,通过测量激光脉冲的飞行时间,计算出目标航天器表面各点与激光雷达之间的距离,从而获取目标航天器的点云数据。激光雷达按照设定的扫描模式,对目标航天器进行全方位或特定区域的扫描,生成包含目标航天器三维结构信息的点云数据集。在采集过程中,需要确保双目相机和激光雷达的同步工作,通过精确的时间同步机制,保证两者在同一时刻获取到关于目标航天器的不同类型数据,为后续的融合处理奠定基础。采集到的原始数据通常包含各种噪声和干扰,需要进行预处理操作以提高数据质量。对于双目相机获取的图像数据,首先进行去噪处理,采用中值滤波算法,该算法能够有效去除图像中的椒盐噪声等孤立噪声点。中值滤波通过在图像中以一定大小的窗口滑动,将窗口内像素的中值作为中心像素的新值,从而平滑图像,减少噪声对后续处理的影响。接着进行图像增强,利用直方图均衡化技术,通过对图像的灰度直方图进行调整,扩展图像的灰度动态范围,增强图像的对比度,使目标航天器的特征更加明显,便于后续的特征提取。对于激光雷达采集的点云数据,首先进行去噪处理,基于距离统计的去噪方法,计算点云中每个点与其邻域内所有点的距离均值,即点密度,统计所有点密度的均值和标准差,将点密度大于均值2倍中误差的点视为噪点并剔除,从而去除离散的空间噪点。然后进行运动补偿,考虑到目标航天器的运动以及激光雷达扫描过程中的时间延迟,根据点云数据的时间戳信息,计算每个点在获取时刻相对于激光开始测量时刻的角度,进而计算姿态补偿矩阵,对每个点的坐标进行修正,以消除运动带来的误差。在预处理之后,进入特征提取阶段。对于双目相机图像,采用改进的尺度不变特征变换(SIFT)算法提取特征点。在传统SIFT算法的基础上,针对太空环境下图像的特点,对特征点检测和描述子计算进行了优化。在特征点检测时,结合图像的灰度梯度信息和局部对比度,提高了特征点检测的准确性和稳定性,能够更准确地提取出目标航天器的关键特征点,如卫星的太阳能板边缘、对接环等部位的特征点。对于激光雷达点云数据,采用基于特征的提取方法,通过计算点云的曲率、法向量等几何特征,筛选出具有明显几何特征的点作为特征点。对于点云数据中曲率较大的点,通常对应着目标航天器表面的边缘、角点等关键部位,将这些点作为特征点,能够有效代表目标航天器的几何形状信息。将双目相机和激光雷达提取的特征点进行融合计算位姿。利用双目相机初步估计的位姿作为初始值,采用改进的迭代最近点(ICP)算法对激光雷达点云数据与预先建立的目标航天器点云模型进行匹配。在传统ICP算法的基础上,增加了点云特征约束和全局优化策略。通过不断迭代优化,寻找两组点云之间的最优匹配关系,从而精确计算出目标航天器的旋转矩阵和平移向量,得到其在世界坐标系下的精确相对位姿。在迭代过程中,根据点云特征之间的几何约束关系,如特征点之间的距离、角度等,对匹配过程进行约束,提高匹配的准确性和稳定性。还引入全局优化策略,通过对整个点云数据集进行优化,避免陷入局部最优解,从而得到更准确的位姿估计结果。五、案例分析与实验验证5.1案例选取与场景设定为了全面验证基于多源信息融合的非合作航天器相对位姿测量方法的有效性和可靠性,本研究精心选取了具有代表性的非合作航天器任务案例,并设定了一系列复杂多样的测量场景。以某型号退役卫星作为非合作目标航天器,该卫星在轨道运行多年,表面存在一定程度的磨损和老化,其形状不规则,表面材质包含金属、复合材料等多种类型,具有典型的非合作航天器特征。在实际航天任务中,对这类退役卫星的监测和处理是一个重要的问题,准确测量其相对位姿对于后续的轨道维持、空间碎片清理等任务具有关键意义。设定了不同距离的测量场景,包括近距离(10-100米)、中距离(100-1000米)和远距离(1000米以上)。在近距离场景下,目标航天器占据相机视场的比例较大,能够获取更详细的表面纹理和几何特征信息,但对测量系统的精度和实时性要求更高,因为在近距离操作中,微小的位姿误差都可能导致严重的后果。在进行航天器在轨维护任务时,测量航天器需要接近目标航天器进行操作,此时精确的相对位姿测量至关重要。中距离场景下,目标航天器的细节信息相对减少,但仍然能够通过图像和点云数据进行有效的特征提取和位姿解算,这个距离范围在一些航天器交会对接任务的中间阶段较为常见。远距离场景下,目标航天器在图像中成像较小,点云数据也相对稀疏,测量难度较大,需要充分发挥多源信息融合的优势,综合利用各种传感器数据来提高测量精度,如在对远距离的太空垃圾进行监测时,就面临着这样的挑战。光照条件是影响非合作航天器相对位姿测量的重要因素之一,因此设定了多种光照场景。包括强光直射场景,模拟卫星在太阳直射下的情况,此时目标航天器表面会出现强烈的反光和阴影,可能导致图像过曝或部分区域细节丢失,对视觉测量造成较大干扰。弱光场景,如卫星处于地球阴影区或夜间飞行时,光照强度较低,图像的信噪比降低,特征提取难度增加,需要采用特殊的图像处理算法和传感器技术来提高测量的准确性。还设置了不均匀光照场景,由于目标航天器表面的形状和材质不均匀,光照在其表面产生的反射和散射也不均匀,这会导致图像中不同区域的亮度和对比度差异较大,增加了图像分析和位姿解算的复杂性。在不同的测量场景下,目标航天器的姿态也有所不同,设定了多种姿态场景。包括翻滚姿态场景,目标航天器围绕自身的三个坐标轴进行快速旋转,这种情况下,目标航天器的表面特征在图像中快速变化,点云数据也会发生严重的畸变,对测量系统的跟踪和位姿解算能力提出了极高的挑战。在对失控的非合作航天器进行测量时,就可能遇到这种情况。偏航姿态场景,目标航天器绕着其自身的垂直轴进行旋转,导致其在相机视场中的角度不断变化,需要测量系统能够实时调整测量策略,准确跟踪目标的姿态变化。俯仰姿态场景,目标航天器绕着其自身的水平轴进行旋转,使得其在垂直方向上的姿态发生改变,这也会影响到图像特征的提取和点云数据的处理,需要测量系统具备较强的适应性。5.2实验setup为了模拟真实的太空环境,实验搭建了一个高真空、微重力和强辐射的模拟太空环境舱。利用大型真空泵组将环境舱内的气压降低至10^-6Pa以下,模拟太空的高真空环境。在微重力模拟方面,采用磁悬浮技术,通过精确控制磁场强度和方向,使实验目标航天器在环境舱内处于微重力状态,尽可能减少重力对实验结果的影响。利用钴-60放射源和高能粒子加速器,在环境舱内产生与太空环境相似的辐射场,模拟太空辐射对测量系统的影响。在实验中,通过调整放射源的强度和粒子加速器的参数,控制辐射剂量和粒子能量,以测试测量系统在不同辐射条件下的性能。实验使用的主要设备包括工业级双目相机和高精度激光雷达。双目相机选用的是德国Basler公司的acA2040-90um型号,该相机具有2048×1088像素的分辨率,帧率可达90fps,能够满足对非合作航天器高分辨率图像获取的需求。其配备了两个焦距为12mm的镜头,基线长度为100mm,通过精确的标定和校准,保证了双目相机的测量精度和稳定性。激光雷达采用的是美国Velodyne公司的VLP-16型号,它能够以每秒30万次的测量速度获取目标的距离信息,垂直视场角为30°,水平视场角为360°,生成的点云数据能够全面地反映目标航天器的三维结构。实验还配备了高精度的转台和定位系统,用于模拟非合作航天器的各种运动姿态和位置变化。转台能够实现三个自由度的旋转,旋转精度可达0.01°,定位系统的定位精度可达0.1mm,为实验提供了准确的运动控制和位置参考。在实验参数设置方面,根据实际航天任务中可能遇到的情况,设置了不同的测量距离、光照条件和目标姿态。测量距离设置为5米、10米和20米,分别模拟近距离、中距离和远距离的测量场景。光照条件通过调整环境舱内的光源强度和角度来实现,设置了强光直射、弱光和不均匀光照三种场景。对于目标姿态,通过转台控制目标航天器模型绕三个坐标轴进行旋转,模拟翻滚、偏航和俯仰等姿态变化,旋转角度范围为±360°,旋转速度设置为5°/s、10°/s和20°/s,以测试测量系统在不同运动速度下的性能。5.3实验结果与分析在近距离测量场景下,针对强光直射、弱光和不均匀光照这三种不同光照条件,以及翻滚、偏航和俯仰这三种不同姿态,分别对单传感器(双目相机和激光雷达)和多源融合的测量结果进行了对比分析。在强光直射条件下,对于翻滚姿态的非合作航天器,双目相机由于强光反射导致图像部分区域过曝,特征提取出现偏差,位姿测量误差较大,位置误差达到了±0.5米,角度误差达到了±5°。激光雷达虽然不受光照影响,但由于目标的快速翻滚,点云数据出现严重畸变,位姿测量误差也较大,位置误差为±0.4米,角度误差为±4°。而采用多源融合方法后,通过对双目相机图像和激光雷达点云数据的互补融合,有效减少了误差,位置误差降低到了±0.2米,角度误差降低到了±2°,精度提升明显。在弱光条件下,对于偏

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论