five

OpenDriveLab/DriveLM|自动驾驶数据集|视觉问答数据集

收藏
hugging_face2024-04-04 更新2024-06-15 收录
自动驾驶
视觉问答
下载链接:
https://hf-mirror.com/datasets/OpenDriveLab/DriveLM
下载链接
链接失效反馈
资源简介:
DriveLM数据集通过图形式结构的问题解答对来支持感知、预测、规划、行为和运动任务。该数据集包括两个部分:DriveLM-nuScenes和DriveLM-CARLA。DriveLM-nuScenes基于nuScenes数据集构建,而DriveLM-CARLA则从CARLA模拟器收集数据。目前,只有DriveLM-nuScenes的训练集是公开的。该数据集包含一系列问题和答案,以及相关的图像数据。
提供机构:
OpenDriveLab
原始信息汇总

DriveLM: 驾驶中的图视觉问答

数据集概述

DriveLM-Data 包含两个部分:DriveLM-nuScenes 和 DriveLM-CARLA。目前仅公开了 DriveLM-nuScenes 的训练集。

DriveLM-nuScenes 数据集

  • 数据文件v1_0_train_nus.json
  • 内容:包含一系列问题和答案。
  • 图像数据:提供了一个图像数据子集,包含 DriveLM 中使用的所有图像。

数据结构

数据应组织如下:

DriveLM ├── data/ │ ├── QA_dataset_nus/ │ │ ├── v1_0_train_nus.json │ ├── nuscenes/ │ │ ├── samples/

许可和引用

该数据集遵循 CC-BY-NC-SA 4.0 许可。使用该数据集时,请引用以下文献:

BibTeX @article{drivelm_paper2023, title={DriveLM: Driving with Graph Visual Question Answering}, author={Sima, Chonghao and Renz, Katrin and Chitta, Kashyap and Chen, Li and Zhang, Hanxue and Xie, Chengen and Luo, Ping and Geiger, Andreas and Li, Hongyang}, journal={arXiv preprint arXiv:2312.14150}, year={2023} }

BibTeX @misc{drivelm_repo2023, title={DriveLM: Driving with Graph Visual Question Answering}, author={DriveLM contributors}, howpublished={url{https://github.com/OpenDriveLab/DriveLM}}, year={2023} }

用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

学生课堂行为数据集 (SCB-dataset3)

学生课堂行为数据集(SCB-dataset3)由成都东软学院创建,包含5686张图像和45578个标签,重点关注六种行为:举手、阅读、写作、使用手机、低头和趴桌。数据集覆盖从幼儿园到大学的不同场景,通过YOLOv5、YOLOv7和YOLOv8算法评估,平均精度达到80.3%。该数据集旨在为学生行为检测研究提供坚实基础,解决教育领域中学生行为数据集的缺乏问题。

arXiv 收录

中国空气质量数据集(2014-2020年)

数据集中的空气质量数据类型包括PM2.5, PM10, SO2, NO2, O3, CO, AQI,包含了2014-2020年全国360个城市的逐日空气质量监测数据。监测数据来自中国环境监测总站的全国城市空气质量实时发布平台,每日更新。数据集的原始文件为CSV的文本记录,通过空间化处理生产出Shape格式的空间数据。数据集包括CSV格式和Shape格式两数数据格式。

国家地球系统科学数据中心 收录

VisDrone2019

VisDrone2019数据集由AISKYEYE团队在天津大学机器学习和数据挖掘实验室收集,包含288个视频片段共261,908帧和10,209张静态图像。数据集覆盖了中国14个不同城市的城市和乡村环境,包括行人、车辆、自行车等多种目标,以及稀疏和拥挤场景。数据集使用不同型号的无人机在各种天气和光照条件下收集,手动标注了超过260万个目标边界框,并提供了场景可见性、对象类别和遮挡等重要属性。

github 收录

HazyDet

HazyDet是由解放军工程大学等机构创建的一个大规模数据集,专门用于雾霾场景下的无人机视角物体检测。该数据集包含383,000个真实世界实例,收集自自然雾霾环境和正常场景中人工添加的雾霾效果,以模拟恶劣天气条件。数据集的创建过程结合了深度估计和大气散射模型,确保了数据的真实性和多样性。HazyDet主要应用于无人机在恶劣天气条件下的物体检测,旨在提高无人机在复杂环境中的感知能力。

arXiv 收录

VQA

我们提出了自由形式和开放式视觉问答 (VQA) 的任务。给定图像和关于图像的自然语言问题,任务是提供准确的自然语言答案。反映许多现实世界的场景,例如帮助视障人士,问题和答案都是开放式的。视觉问题有选择地针对图像的不同区域,包括背景细节和底层上下文。因此,与生成通用图像说明的系统相比,在 VQA 上取得成功的系统通常需要对图像和复杂推理有更详细的理解。此外,VQA 适合自动评估,因为许多开放式答案仅包含几个单词或一组封闭的答案,可以以多项选择的形式提供。我们提供了一个数据集包含 100,000 的图像和问题并讨论它提供的信息。提供了许多 VQA 基线,并与人类表现进行了比较。

OpenDataLab 收录