five

LuSNAR|月球探索数据集|环境感知与导航数据集

收藏
arXiv2024-07-09 更新2024-07-11 收录
月球探索
环境感知与导航
下载链接:
https://github.com/autumn999999/LuSNAR-dataset
下载链接
链接失效反馈
资源简介:
LuSNAR数据集由中国科学院空间应用工程与技术中心和中国科学院空间利用重点实验室创建,是一个多任务、多场景的月球表面数据集。该数据集包含9个基于Unreal Engine的模拟月球场景,每个场景根据地形起伏和物体密度划分,提供了高分辨率的立体图像对、全景语义标签、深度图、点云等数据。数据集的创建旨在支持环境感知和导航算法的开发与验证,适用于2D和3D语义分割、视觉SLAM、LiDAR SLAM、立体匹配和3D重建等任务。LuSNAR数据集的应用领域主要集中在月球探索的自主感知和导航技术,旨在提高月球探测任务的安全性和效率。
提供机构:
中国科学院空间应用工程与技术中心,中国科学院空间利用重点实验室
创建时间:
2024-07-09
原始信息汇总

LuSNAR 数据集

简介

LuSNAR 数据集是一个基于多传感器(立体相机激光雷达IMU)的月球分割、导航和重建数据集,用于自主探索。该数据集包含 9 个基于 Unreal Engine 的月球模拟场景,每个场景根据地形起伏和物体密度进行划分。

数据内容

LuSNAR 数据集包括:

  • 高分辨率立体图像对
  • 全景语义标签
  • 密集深度图
  • 激光雷达点云
  • IMU 数据
  • 漫游车姿态数据

应用场景

该数据集可用于全面评估自主感知和导航系统,包括:

  • 2D/3D 语义分割
  • 视觉/激光雷达 SLAM
  • 3D 重建

可用性

LuSNAR 数据集总大小为 108GB,包含:

  • 42GB 的立体图像对
  • 50GB 的深度图
  • 356MB 的语义分割标签
  • 14GB 的单帧点云数据(带语义信息)

数据集结构如下: plaintext ├── image1 │ ├── RGB │ │ ├── timestamp1.png │ │ ├── timestamp2.png │ │ └── ... │ ├── Depth │ │ ├── timestamp1.png │ │ ├── timestamp2.png │ │ └── ... │ └── Label │ ├── timestamp1.png │ ├── timestamp2.png │ └── ... ├── image2 │ ├── RGB │ │ ├── timestamp1.png │ │ ├── timestamp2.png │ │ └── ... │ ├── Depth │ │ ├── timestamp1.png │ │ ├── timestamp2.png │ │ └── ... │ └── Label │ ├── timestamp1.png │ ├── timestamp2.png │ └── ... ├── LiDAR │ ├── timestamp1.txt │ ├── timestamp2.txt │ └── ... ├── Rover_pose.txt └── IMU.txt

语义图像中颜色与类别编号的对应关系如下:

类别编号 类别 颜色
0 月球风化层 BB469C
1 撞击坑 7800C8
2 岩石 E8FA50
3 山脉 AD451F
4 天空 22C9F8

激光雷达点云数据中类别编号与类别的对应关系如下:

类别编号 类别
-1 月球风化层
0 撞击坑
174 岩石

文件格式

LiDAR/timestamp.txt

plaintext | x [m] | y [m] | z [m] | 类别编号 |

Rover_pose.txt

plaintext | 时间戳 [ns] | p_RS_R_x [m] | p_RS_R_y [m] | p_RS_R_z [m] | q_RS_w [] | q_RS_x [] | q_RS_y [] | q_RS_z [] | v_RS_R_x [m s^-1] | v_RS_R_y [m s^-1] | v_RS_R_z [m s^-1] | b_w_RS_S_x [rad s^-1] | b_w_RS_S_y [rad s^-1] | b_w_RS_S_z [rad s^-1] | b_a_RS_S_x [m s^-2] | b_a_RS_S_y [m s^-2] | b_a_RS_S_z [m s^-2] |

IMU.txt

plaintext | 时间戳 [ns] | w_RS_S_x [rad s^-1] | w_RS_S_y [rad s^-1] | w_RS_S_z [rad s^-1] | a_RS_S_x [m s^-2] | a_RS_S_y [m s^-2] | a_RS_S_z [m s^-2] |

AI搜集汇总
数据集介绍
main_image_url
构建方式
LuSNAR数据集通过基于Unreal Engine 4的模拟引擎构建,设计了9个具有不同地形起伏和物体密度的月球表面场景。每个场景根据地形特征和物体分布进行细分,以覆盖多种月球表面类型。数据集包括高分辨率立体图像对、全景语义标签、密集深度图、LiDAR点云以及月球车的位置信息。通过模拟引擎,生成了可靠且高精度的地面真值标签,包括深度、2D语义掩码、3D语义标签、轨迹和场景的3D点云。
使用方法
LuSNAR数据集可用于验证和开发月球车自主环境感知和导航算法。用户可以通过访问提供的GitHub链接下载数据集,并使用其中的多模态数据进行算法训练和测试。数据集支持多种任务,包括2D和3D语义分割、视觉和LiDAR SLAM、立体匹配和3D重建。通过使用高精度的地面真值标签,研究人员可以评估和优化算法的性能,推动月球车自主探索技术的发展。
背景与挑战
背景概述
随着月球探测任务的复杂性增加,月球探测器需要更高水平的自主能力。环境感知和导航算法是实现月球探测器自主探索的基础。算法的发展和验证需要高度可靠的数据支持。现有的月球数据集大多针对单一任务,缺乏多样化的场景和高精度的地面真值标签。为了解决这一问题,我们提出了一个多任务、多场景、多标签的月球基准数据集LuSNAR。该数据集可用于全面评估自主感知和导航系统,包括高分辨率立体图像对、全景语义标签、密集深度图、LiDAR点云和探测器位置。为了提供更丰富的场景数据,我们基于Unreal Engine构建了9个月球模拟场景。每个场景根据地形起伏和物体密度进行划分。为了验证数据集的可用性,我们评估和分析了语义分割、3D重建和自主导航算法。实验结果证明,本文提出的数据集可用于自主环境感知和导航任务的地面验证,并为算法指标的测试提供了月球基准数据集。
当前挑战
LuSNAR数据集在构建过程中面临多个挑战。首先,解决领域问题的挑战在于如何提供多样化的场景和高精度的地面真值标签,以支持多任务的全面评估。其次,构建过程中遇到的挑战包括如何模拟真实的月球环境,确保数据的多样性和真实性。此外,数据集需要覆盖不同的地形和地貌,以提高算法的泛化能力。最后,收集大量高质量的地面真值标签也是一个挑战,因为实际传感器捕获的地面真值数据在户外环境中可靠性较差。
常用场景
经典使用场景
LuSNAR数据集在月球自主探索领域中具有经典应用场景,主要用于验证和开发环境感知与导航算法。该数据集通过提供高分辨率立体图像对、全景语义标签、密集深度图、LiDAR点云以及月球车位置信息,支持2D和3D语义分割、视觉SLAM、LiDAR SLAM、立体匹配和3D重建等多任务评估。这些任务的协同执行对于确保月球车在复杂环境中的安全与高效导航至关重要。
解决学术问题
LuSNAR数据集解决了现有月球数据集在场景多样性和高精度地面真值标签方面的不足,为学术研究提供了坚实的基础。通过模拟多种月球表面场景,该数据集能够全面评估自主感知和导航系统的性能,推动了深度学习算法在月球环境中的应用。此外,LuSNAR还为算法在不同地形和地貌条件下的泛化能力提供了测试平台,有助于提升月球车在未知环境中的适应性。
实际应用
在实际应用中,LuSNAR数据集为月球车的自主导航和环境感知提供了可靠的数据支持。通过模拟多种月球表面场景,该数据集帮助开发和验证导航算法,确保月球车在复杂地形中的安全行驶。此外,LuSNAR还支持3D重建任务,为路径规划和障碍物规避提供了精确的地形信息,从而提升了月球探索任务的效率和安全性。
数据集最近研究
最新研究方向
在月球探索任务日益复杂的背景下,LuSNAR数据集的最新研究方向主要集中在提升月球探测车的自主感知和导航能力。该数据集通过模拟引擎生成了多任务、多场景和多标签的月球表面数据,支持高分辨率立体图像对、全景语义标签、密集深度图、LiDAR点云和探测车位置等多种数据类型的综合评估。前沿研究利用LuSNAR数据集验证和开发了语义分割、3D重建和自主导航算法,特别是在复杂地形和物体密度变化条件下的算法性能。这些研究不仅提升了算法的鲁棒性和准确性,还为未来月球探测任务中的自主环境感知和导航系统提供了坚实的基础。
相关研究论文
  • 1
    LuSNAR:A Lunar Segmentation, Navigation and Reconstruction Dataset based on Muti-sensor for Autonomous Exploration中国科学院空间应用工程与技术中心,中国科学院空间利用重点实验室 · 2024年
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4099个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

Hang Seng Index

恒生指数(Hang Seng Index)是香港股市的主要股票市场指数,由恒生银行旗下的恒生指数有限公司编制。该指数涵盖了香港股票市场中最具代表性的50家上市公司,反映了香港股市的整体表现。

www.hsi.com.hk 收录

OpenPose

OpenPose数据集包含人体姿态估计的相关数据,主要用于训练和评估人体姿态检测算法。数据集包括多视角的图像和视频,标注了人体关键点位置,适用于研究人体姿态识别和动作分析。

github.com 收录

广东省标准地图

该数据类主要为广东省标准地图信息。标准地图依据中国和世界各国国界线画法标准编制而成。该数据包括广东省全图、区域地图、地级市地图、县(市、区)地图、专题地图、红色印迹地图等分类。

开放广东 收录

中国区域地面气象要素驱动数据集 v2.0(1951-2024)

中国区域地面气象要素驱动数据集(China Meteorological Forcing Data,以下简称 CMFD)是为支撑中国区域陆面、水文、生态等领域研究而研发的一套高精度、高分辨率、长时间序列数据产品。本页面发布的 CMFD 2.0 包含了近地面气温、气压、比湿、全风速、向下短波辐射通量、向下长波辐射通量、降水率等气象要素,时间分辨率为 3 小时,水平空间分辨率为 0.1°,时间长度为 74 年(1951~2024 年),覆盖了 70°E~140°E,15°N~55°N 空间范围内的陆地区域。CMFD 2.0 融合了欧洲中期天气预报中心 ERA5 再分析数据与气象台站观测数据,并在辐射、降水数据产品中集成了采用人工智能技术制作的 ISCCP-ITP-CNN 和 TPHiPr 数据产品,其数据精度较 CMFD 的上一代产品有显著提升。 CMFD 历经十余年的发展,其间发布了多个重要版本。2019 年发布的 CMFD 1.6 是完全采用传统数据融合技术制作的最后一个 CMFD 版本,而本次发布的 CMFD 2.0 则是 CMFD 转向人工智能技术制作的首个版本。此版本与 1.6 版具有相同的时空分辨率和基础变量集,但在其它诸多方面存在大幅改进。除集成了采用人工智能技术制作的辐射和降水数据外,在制作 CMFD 2.0 的过程中,研发团队尽可能采用单一来源的再分析数据作为输入并引入气象台站迁址信息,显著缓解了 CMFD 1.6 中因多源数据拼接和气象台站迁址而产生的虚假气候突变。同时,CMFD 2.0 数据的时间长度从 CMFD 1.6 的 40 年大幅扩展到了 74 年,并将继续向后延伸。CMFD 2.0 的网格空间范围虽然与 CMFD 1.6 相同,但其有效数据扩展到了中国之外,能够更好地支持跨境区域研究。为方便用户使用,CMFD 2.0 还在基础变量集之外提供了若干衍生变量,包括近地面相对湿度、雨雪分离降水产品等。此外,CMFD 2.0 摒弃了 CMFD 1.6 中通过 scale_factor 和 add_offset 参数将实型数据化为整型数据的压缩技术,转而直接将实型数据压缩存储于 NetCDF4 格式文件中,从而消除了用户使用数据时进行解压换算的困扰。 本数据集原定版本号为 1.7,但鉴于本数据集从输入数据到研制技术都较上一代数据产品有了大幅的改变,故将其版本号重新定义为 2.0。

国家青藏高原科学数据中心 收录

OpenSonarDatasets

OpenSonarDatasets是一个致力于整合开放源代码声纳数据集的仓库,旨在为水下研究和开发提供便利。该仓库鼓励研究人员扩展当前的数据集集合,以增加开放源代码声纳数据集的可见性,并提供一个更容易查找和比较数据集的方式。

github 收录