LuSNAR数据集:推动月球探测自主性的新基准

LuSNAR:A Lunar Segmentation, Navigation and Reconstruction Dataset based on Muti-sensor for Autonomous Exploration

摘要

本文介绍了一种名为LuSNAR的新型月球分割、导航和重建数据集,该数据集基于多传感器用于自主探索。随着月球探索任务的复杂性增加,月球探测器需要更高水平的自主性。环境感知和导航算法是实现月球探测器自主探索的基础。为了解决现有月球数据集单一任务、缺乏多样场景和高精度地面真实标签的问题,本文提出了一个多任务、多场景、多标签的月球基准数据集LuSNAR。该数据集可以用于综合评估自主感知和导航系统,包括高分辨率立体图像对、全景语义标签、密集深度图、LiDAR点云和探测器位置。为了提供更丰富的场景数据,本文基于Unreal Engine构建了9个月球模拟场景。每个场景根据地形起伏和物体密度进行划分。为了验证数据集的可用性,本文评估和分析了语义分割、3D重建和自主导航算法。实验结果证明,本文提出的数据集可以用于自主环境感知和导航任务的地面验证,并提供了一个测试算法指标可达性的月球基准数据集。

原理

LuSNAR数据集的核心在于其多任务、多场景、多标签的设计理念。通过模拟引擎Unreal Engine 4,数据集生成了多样化的月球表面场景,每个场景都包含了高精度的地面真实标签,如深度、2D语义掩码、3D语义标签、轨迹和场景的3D点云。这些数据是通过模拟探测器在场景中的运动轨迹收集的,包括立体相机、LiDAR和IMU传感器的数据。这种设计允许研究者在一个统一的数据集上测试和比较多种算法,如2D和3D语义分割、视觉SLAM、LiDAR SLAM、立体匹配和3D重建。LuSNAR数据集的先进性在于其能够提供一个高度真实且多样化的月球表面环境,这对于开发和验证复杂的自主探索算法至关重要。

流程

LuSNAR数据集的工作流程包括场景设计、数据收集和算法验证三个主要步骤。首先,基于Unreal Engine 4和AirSim插件,设计了9个具有不同地形起伏和物体密度的月球模拟场景。然后,通过模拟探测器在这些场景中的运动,收集了包括立体图像对、LiDAR点云、IMU数据和探测器位置的多种数据。最后,使用这些数据对语义分割、SLAM和3D重建算法进行了验证。例如,在语义分割实验中,使用了5种先进的2D语义分割算法和5种3D语义分割算法,评估了它们在LuSNAR数据集上的性能。在SLAM实验中,测试了视觉SLAM和LiDAR SLAM算法,评估了它们在不同场景中的定位精度和实时性能。

应用

LuSNAR数据集的应用前景广泛,主要集中在月球探测器的自主环境感知和导航系统的开发和验证上。该数据集可以支持多种任务,包括2D和3D语义分割、视觉SLAM、LiDAR SLAM、立体匹配和3D重建。这些任务对于实现月球探测器的自主导航、障碍物识别、路径规划和地形重建至关重要。随着未来月球探索任务的增加,LuSNAR数据集将成为评估和优化这些算法的重要工具,有助于推动月球探测技术的进步。