five

CL-Drive|驾驶安全数据集|认知负荷评估数据集

收藏
arXiv2023-12-21 更新2024-06-21 收录
驾驶安全
认知负荷评估
下载链接:
https://github.com/Prithila05/CL-Drive
下载链接
链接失效反馈
资源简介:
CL-Drive数据集由皇后大学的研究团队创建,专注于驾驶中的认知负荷评估。该数据集包含来自21名受试者的EEG、ECG、EDA和眼动追踪数据,这些数据在沉浸式车辆模拟器中收集,模拟了多种驾驶条件以诱发不同程度的认知负荷。每个受试者在9种不同复杂度的任务中驾驶3分钟,并每10秒报告一次主观认知负荷,作为训练机器学习模型的基础数据。数据集的应用领域包括智能车辆系统的自动化警报系统开发,旨在通过准确测量和响应驾驶者的认知负荷来提高道路安全性。
提供机构:
皇后大学
创建时间:
2023-04-10
AI搜集汇总
数据集介绍
main_image_url
构建方式
CL-Drive数据集的构建采用了多模态生理信号采集方法,包括脑电图(EEG)、心电图(ECG)、皮肤电活动(EDA)以及眼动追踪数据。数据采集过程涉及21名受试者在沉浸式车辆模拟器中进行不同复杂度的驾驶任务,以诱发不同水平的认知负荷。每个受试者在实验过程中每10秒报告一次主观认知负荷,这些主观评分被用作地面真实值。此外,该数据集还提供了不同机器学习和深度学习模型的基准分类结果,这些模型在二元和三元标签分布下进行评估。数据集的构建过程采用了严格的实验设计,确保了数据的多样性和可靠性。
特点
CL-Drive数据集的特点在于其多模态性和高密度标签。该数据集包含了多种生理信号,为认知负荷评估提供了丰富的数据来源。此外,每10秒记录一次的主观认知负荷评分使得数据集具有高密度标签,这有助于更准确地评估和预测认知负荷。此外,该数据集还提供了不同复杂度的驾驶场景,涵盖了日常驾驶中可能遇到的多种挑战。
使用方法
CL-Drive数据集的使用方法包括但不限于以下几种:首先,可以使用该数据集来训练和评估机器学习和深度学习模型,以实现对驾驶员认知负荷的自动检测和评估。其次,该数据集可以用于研究不同生理信号与认知负荷之间的关系,以及不同驾驶场景对认知负荷的影响。此外,该数据集还可以用于开发智能交通系统和辅助驾驶系统,以提高驾驶安全性和舒适性。在使用该数据集时,需要注意数据预处理、特征提取和模型选择等步骤,以确保得到准确和可靠的结果。
背景与挑战
背景概述
随着自动驾驶技术的不断发展,驾驶员的认知负荷评估成为智能车辆安全系统的重要组成部分。CL-Drive数据集应运而生,由Queen's University的Prithila Angkan等人于2023年创建,旨在通过收集驾驶员在沉浸式车辆模拟器中驾驶时的脑电图(EEG)、心电图(ECG)、皮肤电活动(EDA)和眼动追踪数据,研究驾驶员在不同驾驶条件下的认知负荷。该数据集包含21名受试者在不同复杂程度的驾驶任务中每10秒报告的主观认知负荷,为研究人员提供了丰富的训练数据。CL-Drive数据集的发布为开发智能车辆的自动警报系统提供了有力支持,对推动驾驶员认知负荷评估技术的发展具有重要意义。
当前挑战
CL-Drive数据集在研究驾驶员认知负荷方面面临诸多挑战。首先,现有的认知负荷数据集多在非车辆环境中采集,而CL-Drive数据集专注于驾驶场景,为研究驾驶引起的认知负荷提供了新的视角。其次,现有数据集的认知负荷真实标签通常稀疏,而CL-Drive数据集每10秒记录一次主观认知负荷,为机器学习模型的训练提供了更密集和频繁的标签。此外,CL-Drive数据集首次收集了包含生物信号和驾驶员认知负荷评分的数据,为多模态研究提供了宝贵资源。然而,使用模拟器而非真实车辆进行实验可能导致参与者出现模拟器适应综合征,影响实验结果的准确性。此外,数据集的参与者数量相对较少,可能限制模型的泛化能力。最后,数据集采用主观报告的方法来评估认知负荷,尽管已证明其可靠性,但仍需进一步研究以减少主观性。
常用场景
经典使用场景
CL-Drive数据集主要用于评估驾驶过程中驾驶员的认知负荷,以便为智能车辆开发自动警报系统。数据集包含了从21名受试者在沉浸式车辆模拟器中驾驶时收集的脑电图(EEG)、心电图(ECG)、皮肤电活动(EDA)以及眼动追踪数据。受试者执行了9个复杂级别的驾驶任务,每个任务持续3分钟。在每个任务期间,每个受试者每10秒报告一次他们的主观认知负荷。数据集包含了作为地面真值记录的主观认知负荷。此外,该论文还提供了不同机器学习和深度学习模型在二元和三元标签分布上的基准分类结果。
实际应用
CL-Drive数据集在实际应用中可以用于评估驾驶员在各种驾驶场景下的认知工作负荷,如高交通状况、恶劣天气或在复杂操作期间。该数据集有助于提高道路安全,增强驾驶体验,并为更智能和以人为中心的交通系统的发展做出贡献。
衍生相关工作
CL-Drive数据集的发布为相关研究提供了丰富的数据资源,促进了驾驶员认知负荷评估领域的发展。基于该数据集的研究工作可以进一步探索多模态BCI技术在智能车辆中的应用,以及开发更精确的驾驶员认知状态监测和警报系统。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

学生课堂行为数据集 (SCB-dataset3)

学生课堂行为数据集(SCB-dataset3)由成都东软学院创建,包含5686张图像和45578个标签,重点关注六种行为:举手、阅读、写作、使用手机、低头和趴桌。数据集覆盖从幼儿园到大学的不同场景,通过YOLOv5、YOLOv7和YOLOv8算法评估,平均精度达到80.3%。该数据集旨在为学生行为检测研究提供坚实基础,解决教育领域中学生行为数据集的缺乏问题。

arXiv 收录

RAVDESS

情感语音和歌曲 (RAVDESS) 的Ryerson视听数据库包含7,356个文件 (总大小: 24.8 GB)。该数据库包含24位专业演员 (12位女性,12位男性),以中性的北美口音发声两个词汇匹配的陈述。言语包括平静、快乐、悲伤、愤怒、恐惧、惊讶和厌恶的表情,歌曲则包含平静、快乐、悲伤、愤怒和恐惧的情绪。每个表达都是在两个情绪强度水平 (正常,强烈) 下产生的,另外还有一个中性表达。所有条件都有三种模态格式: 纯音频 (16位,48kHz .wav),音频-视频 (720p H.264,AAC 48kHz,.mp4) 和仅视频 (无声音)。注意,Actor_18没有歌曲文件。

OpenDataLab 收录

UAV-VisLoc - 用于无人机视觉定位的大规模数据集

UAV-VisLoc数据集由北京邮电大学、中科院和香港城市大学联合构建,旨在解决无人机在失去全球导航卫星系统信号时的精确定位问题。该数据集涵盖了中国11个不同地点的无人机图像,捕获了多样化的地形特征,包括固定翼无人机和多地形无人机在不同高度和方向上拍摄的6742张图像以及11幅卫星地图。每张图像均附有经纬度、高度、拍摄日期和航向角等元数据,为模型的训练与测试提供了丰富多元的数据支持。UAV-VisLoc数据集用于支持无人机视觉定位任务,为无人机视觉定位任务提供了训练和测试样本,通过匹配无人机拍摄的地面向下视角图像与正射卫星地图,实现无人机的自主视觉定位。

github 收录

Yahoo Finance

Dataset About finance related to stock market

kaggle 收录

CAP-DATA

CAP-DATA数据集由长安大学交通学院的研究团队创建,包含11,727个交通事故视频,总计超过2.19百万帧。该数据集不仅标注了事故发生的时间窗口,还提供了详细的文本描述,包括事故前的实际情况、事故类别、事故原因和预防建议。数据集的创建旨在通过结合视觉和文本信息,提高交通事故预测的准确性和解释性,从而支持更安全的驾驶决策系统。

arXiv 收录