five

ONCE (One millioN sCenEs) dataset|自动驾驶数据集|3D物体检测数据集

收藏
arXiv2021-10-25 更新2024-06-21 收录
自动驾驶
3D物体检测
下载链接:
http://www.once-for-auto-driving.com
下载链接
链接失效反馈
资源简介:
ONCE数据集是目前最大的自动驾驶数据集,由华为诺亚方舟实验室等机构创建,包含100万个3D场景和700万张2D图像。数据集覆盖了144小时的驾驶数据,涵盖了不同的地区、时间段和天气条件,远超现有的其他自动驾驶数据集。每个场景由高质量的LiDAR传感器捕获,转换为平均每场景7万个点的密集3D点云。此外,每个场景还通过7个摄像头捕捉高分辨率图像,覆盖360度视野。数据集不仅用于3D物体检测,还支持自监督和半监督学习方法的研究,旨在解决自动驾驶中的长尾问题和未见案例覆盖问题。
提供机构:
华为诺亚方舟实验室
创建时间:
2021-06-21
AI搜集汇总
数据集介绍
构建方式
在自动驾驶领域,感知模型的性能提升依赖于大规模标注数据的覆盖。然而,现实世界场景数据的不足限制了全监督、半监督和自监督方法的发展。为此,我们引入了ONCE数据集,该数据集包含100万帧激光雷达场景和700万帧对应的摄像头图像,数据采集时长为144小时,覆盖了多种地理区域、时间段和天气条件。数据集的构建通过在多个城市进行数据采集,确保了数据的多样性和广泛性。
特点
ONCE数据集的特点在于其规模和多样性。相较于现有的自动驾驶数据集,如nuScenes和Waymo,ONCE数据集在场景数量和图像数量上分别增加了5倍和7倍,采集时长增加了20倍。此外,数据集提供了精确的传感器校准参数和多传感器数据融合,以及详细的天气和时间段信息,为研究提供了丰富的上下文知识。
使用方法
ONCE数据集可用于多种自动驾驶任务的研究,特别是3D物体检测。研究者可以利用数据集中的标注数据进行全监督学习,或利用未标注数据进行半监督和自监督学习。数据集还提供了基准测试,帮助研究者评估和比较不同方法的性能。通过访问数据集的官方网站,研究者可以获取详细的使用指南和下载链接。
背景与挑战
背景概述
随着自动驾驶技术的快速发展,3D物体检测作为自动驾驶系统中的关键技术,能够识别和定位自车周围的车辆和行人。近年来,大规模和多样化的场景数据显著提升了3D检测器的感知精度。然而,现有的自动驾驶数据集在数据资源和场景多样性方面存在局限,主要因为这些数据必须通过搭载昂贵传感器套件的车辆在道路上收集,且需遵守当地法规。为了解决这一问题,ONCE(One millioN sCenEs)数据集应运而生,由华为诺亚方舟实验室等机构的研究人员创建,包含100万帧LiDAR场景和700万帧对应的摄像头图像,覆盖144小时的驾驶数据,比现有的最大3D自动驾驶数据集(如nuScenes和Waymo)长20倍,且涵盖了更多不同的区域、时间段和天气条件。
当前挑战
ONCE数据集在构建过程中面临两大挑战:一是数据资源的稀缺和场景的缺乏多样性,自动驾驶场景必须通过实际驾驶收集,导致现有数据集提供的场景数据有限;二是有效利用未标注场景数据的问题,尽管数据采集车辆可以收集大量点云数据,但熟练工人每天只能标注100-200帧,导致未标注数据迅速积累。此外,当前的3D物体检测评估指标在处理物体方向时存在问题,预测框与地面真实框的方向相反时仍可匹配,这可能在实际应用中带来危险。ONCE数据集通过引入更严格的评估指标,考虑物体的方向,以解决这一问题。
常用场景
经典使用场景
ONCE数据集在自动驾驶领域中的经典应用场景主要集中在3D物体检测任务上。该数据集包含了100万帧的激光雷达场景和700万帧的相应摄像头图像,覆盖了144小时的驾驶数据,远超现有的自动驾驶数据集(如nuScenes和Waymo)。这些丰富的数据为研究人员提供了在不同地理区域、时间段和天气条件下进行3D物体检测的宝贵资源,尤其是在处理未标记的大规模数据时,能够显著提升感知模型的鲁棒性和准确性。
实际应用
在实际应用中,ONCE数据集被广泛用于训练和验证自动驾驶系统中的3D物体检测算法。这些算法在车辆和行人周围的环境中识别和定位物体,为自动驾驶车辆的安全行驶提供了关键信息。此外,数据集中的未标记数据也被用于半监督和自监督学习方法的训练,进一步提升了检测模型的性能和泛化能力。
衍生相关工作
ONCE数据集的发布催生了一系列相关研究工作,特别是在自监督和半监督学习方法在3D物体检测中的应用。例如,研究人员基于该数据集开发了多种对比学习和聚类方法,如PointContrast和DeepCluster,这些方法在3D点云理解方面取得了显著进展。此外,数据集还促进了无监督域适应技术的发展,如SN和ST3D,这些技术在不同数据集之间迁移模型时表现出色。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

Breast Ultrasound Images (BUSI)

小型(约500×500像素)超声图像,适用于良性和恶性病变的分类和分割任务。

github 收录

VisDrone2019

VisDrone2019数据集由AISKYEYE团队在天津大学机器学习和数据挖掘实验室收集,包含288个视频片段共261,908帧和10,209张静态图像。数据集覆盖了中国14个不同城市的城市和乡村环境,包括行人、车辆、自行车等多种目标,以及稀疏和拥挤场景。数据集使用不同型号的无人机在各种天气和光照条件下收集,手动标注了超过260万个目标边界框,并提供了场景可见性、对象类别和遮挡等重要属性。

github 收录

VoxBox

VoxBox是一个大规模语音语料库,由多样化的开源数据集构建而成,用于训练文本到语音(TTS)系统。

github 收录

UniMed

UniMed是一个大规模、开源的多模态医学数据集,包含超过530万张图像-文本对,涵盖六种不同的医学成像模态:X射线、CT、MRI、超声、病理学和眼底。该数据集通过利用大型语言模型(LLMs)将特定模态的分类数据集转换为图像-文本格式,并结合现有的医学领域的图像-文本数据,以促进可扩展的视觉语言模型(VLM)预训练。

github 收录

AgiBot World

为了进一步推动通用具身智能领域研究进展,让高质量机器人数据触手可及,作为上海模塑申城语料普惠计划中的一份子,智元机器人携手上海人工智能实验室、国家地方共建人形机器人创新中心以及上海库帕思,重磅发布全球首个基于全域真实场景、全能硬件平台、全程质量把控的百万真机数据集开源项目 AgiBot World。这一里程碑式的开源项目,旨在构建国际领先的开源技术底座,标志着具身智能领域 「ImageNet 时刻」已到来。AgiBot World 是全球首个基于全域真实场景、全能硬件平台、全程质量把控的大规模机器人数据集。相比于 Google 开源的 Open X-Embodiment 数据集,AgiBot World 的长程数据规模高出 10 倍,场景范围覆盖面扩大 100 倍,数据质量从实验室级上升到工业级标准。AgiBot World 数据集收录了八十余种日常生活中的多样化技能,从抓取、放置、推、拉等基础操作,到搅拌、折叠、熨烫等精细长程、双臂协同复杂交互,几乎涵盖了日常生活所需的绝大多数动作需求。

github 收录