five

CAP-DATA|交通事故分析数据集|驾驶安全数据集

收藏
arXiv2023-06-16 更新2024-06-21 收录
交通事故分析
驾驶安全
下载链接:
https://github.com/JWFanggit/LOTVS-CAP
下载链接
链接失效反馈
资源简介:
CAP-DATA数据集由长安大学交通学院的研究团队创建,包含11,727个交通事故视频,总计超过2.19百万帧。该数据集不仅标注了事故发生的时间窗口,还提供了详细的文本描述,包括事故前的实际情况、事故类别、事故原因和预防建议。数据集的创建旨在通过结合视觉和文本信息,提高交通事故预测的准确性和解释性,从而支持更安全的驾驶决策系统。
提供机构:
长安大学交通学院
创建时间:
2022-12-19
AI搜集汇总
数据集介绍
main_image_url
构建方式
CAP-DATA数据集的构建基于对现有DADA-2000数据集的扩展,新增了11,727个真实世界中的事故视频,共计219万帧。每个视频均标注了事故时间窗口、事实-影响-原因-反思描述(包括事故前的事实描述、事故类别描述、事故原因描述及预防建议),并进一步划分了58种事故类别。数据来源包括公开的事故数据集及多个视频流平台(如YouTube、Bilibili等),确保了数据的多样性和广泛性。
特点
CAP-DATA数据集的特点在于其多模态标注的丰富性。除了视频帧的时间戳标注外,还提供了详细的事故描述文本,涵盖了事故前的事实、事故类别、原因及预防建议。此外,数据集还标注了天气、光照条件、场景类型和道路类型等静态属性,为事故预测模型提供了多维度的上下文信息。数据集规模庞大,涵盖了多种复杂场景,能够有效支持事故检测、因果推理、分类及文本-视频检索等任务。
使用方法
CAP-DATA数据集的使用方法主要包括多模态融合模型的训练与评估。通过结合视频帧和事故前的文本描述,模型能够学习到事故发生的核心语义线索。数据集支持多种任务,如事故预测、因果推理和事故分类等。在训练过程中,模型通过注意力机制融合文本和视觉信息,并在测试阶段仅依赖视频数据进行推理。此外,数据集还提供了驾驶员注意力地图的重建任务,进一步增强了模型的可解释性和预测能力。
背景与挑战
背景概述
CAP-DATA数据集由Jianwu Fang等研究人员于2023年提出,旨在通过多模态方法预测驾驶场景中的交通事故。该数据集包含11,727个真实世界中的事故视频,共计219万帧,涵盖了多种天气、光照和道路条件。CAP-DATA的创建基于对现有DADA-2000数据集的扩展,增加了事故前的文本描述和驾驶员注意力标注。该数据集的核心研究问题是通过结合视觉观察和文本描述,模拟人类认知机制,提升事故预测的准确性和可解释性。CAP-DATA的发布为自动驾驶和辅助驾驶系统的安全决策提供了重要支持,推动了交通事故预测领域的研究进展。
当前挑战
CAP-DATA数据集面临的挑战主要体现在两个方面。首先,交通事故预测本身具有高度复杂性,事故往往发生在极短的时间窗口内,且事故区域通常具有稀疏的时空语义信息。模型需要从正常驾驶状态到事故状态的突然变化中捕捉关键线索,这对模型的时空建模能力提出了极高要求。其次,数据集的构建过程中也面临诸多挑战,包括如何在复杂的环境条件下(如低光照、恶劣天气)准确标注事故前的文本描述和驾驶员注意力,以及如何处理数据集中事故类型的高度不平衡分布。此外,CAP-DATA的规模庞大,标注工作繁重,如何确保标注的一致性和准确性也是一个重要挑战。
常用场景
经典使用场景
CAP-DATA数据集主要用于交通场景中的事故预测研究,特别是在自动驾驶和辅助驾驶系统中。该数据集通过结合视觉观察和驾驶员注意力数据,提供了一个多模态的基准,用于训练和评估事故预测模型。其经典使用场景包括在驾驶视频中预测未来可能发生的交通事故,并为安全驾驶系统提供早期预警。
衍生相关工作
CAP-DATA数据集的发布推动了多个相关领域的研究进展。基于该数据集,研究者们提出了多种改进的事故预测模型,如结合图神经网络和注意力机制的动态时空网络(DSTAN)以及基于强化学习的事故预测模型(DRIVE)。此外,CAP-DATA还促进了多模态融合技术在交通场景中的应用研究,推动了文本-视觉联合推理模型的发展。这些衍生工作不仅提升了事故预测的准确性,还为交通场景中的其他任务(如行为预测和轨迹预测)提供了新的研究思路。
数据集最近研究
最新研究方向
在驾驶场景中的认知事故预测领域,CAP-DATA数据集的最新研究方向聚焦于多模态融合与认知机制的深度结合。通过引入文本描述和驾驶员注意力机制,CAP方法显著提升了事故预测的准确性和可解释性。该数据集不仅扩展了现有的DADA-2000数据集,还构建了一个包含11,727个真实事故视频的大规模基准,涵盖了2.19百万帧的标注数据。前沿研究进一步探索了基于注意力机制的文本-视觉融合模块、场景上下文传递模块以及驾驶员注意力引导的事故预测模块,这些模块通过图神经网络(GNN)和门控循环单元(GRU)等技术,模拟人类认知过程,增强了模型对复杂驾驶环境的适应能力。CAP-DATA的发布为自动驾驶和辅助驾驶系统的安全决策提供了强有力的支持,推动了交通场景中事故预测技术的进一步发展。
相关研究论文
  • 1
    Cognitive Accident Prediction in Driving Scenes: A Multimodality Benchmark长安大学交通学院 · 2023年
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4099个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

URPC系列数据集, S-URPC2019, UDD

URPC系列数据集包括URPC2017至URPC2020DL,主要用于水下目标的检测和分类。S-URPC2019专注于水下环境的特定检测任务。UDD数据集信息未在README中详细描述。

github 收录

UAV123

从低空无人机捕获的视频与流行的跟踪数据集 (如OTB50,OTB100,VOT2014,VOT2015,TC128和ALOV300) 中的视频本质上不同。因此,我们提出了一个新的数据集 (UAV123),其序列来自空中视点,其子集用于长期空中跟踪 (UAV20L)。我们新的UAV123数据集包含总共123个视频序列和超过110K帧,使其成为仅次于ALOV300的第二大对象跟踪数据集。所有序列都用直立的边界框完全注释。数据集可以很容易地与视觉跟踪器基准集成。它包括无人机数据集的所有边界框和属性注释。还请使用包含序列和跟踪器配置的修改后的文件 “configSeqs.m” 和 “configTrackers.m” 下载修改后的跟踪器基准。另外,请注意,文件 “perfPlot.m” 已根据本文中描述的属性进行了修改以进行评估。

OpenDataLab 收录

WorldClim

WorldClim是一个全球气候数据集,提供了全球范围内的气候数据,包括温度、降水、生物气候变量等。数据集的分辨率从30秒到10分钟不等,适用于各种尺度的气候分析和建模。

www.worldclim.org 收录

highD

highD数据集是由亚琛工业大学汽车工程研究所创建的,旨在为高度自动化驾驶系统的安全验证提供大规模自然车辆轨迹数据。该数据集包含从德国高速公路收集的16.5小时测量数据,涵盖110,000辆车,总行驶距离达45,000公里,记录了5600次完整的变道行为。数据集通过配备高分辨率摄像头的无人机从空中视角进行测量,确保了数据的准确性和自然性。highD数据集不仅用于安全验证和影响评估,还支持交通模拟模型、交通分析、驾驶员模型和道路用户预测模型等领域的研究,旨在解决高度自动化驾驶系统在复杂交通环境中的应用问题。

arXiv 收录

LANDSLIDE DETECTION

该数据集专注于山体滑坡现象的识别与分类,旨在为改进YOLOv8模型提供高质量的训练数据。数据集包含1600幅图像,类别数量为1,具体类别为“LANDSLIDE”。数据集的构建考虑了山体滑坡的多样性与复杂性,确保模型在实际应用中具备良好的泛化能力。

github 收录