five

EV-Action|多模态动作分析数据集|生物力学数据集

收藏
github2024-04-29 更新2024-05-31 收录
多模态动作分析
生物力学
下载链接:
https://github.com/wanglichenxj/EV-Action-Electromyography-Vision-Multi-Modal-Action-Dataset
下载链接
链接失效反馈
资源简介:
EV-Action是一个大规模的多模态人类动作分析数据集,包含RGB、深度、肌电图(EMG)和两种骨骼模态。该数据集通过部署运动捕捉系统获取高质量的骨骼模态,并引入EMG模态,这在动作相关研究中尚未得到充分探索。这是首个包含EMG模态的动作数据集,旨在为人类运动分析、计算机视觉、机器学习、生物力学等跨学科领域做出贡献。

EV-Action is a large-scale multimodal human action analysis dataset, encompassing RGB, depth, electromyography (EMG), and two types of skeletal modalities. The dataset captures high-quality skeletal modalities through the deployment of motion capture systems and introduces EMG modalities, which have not been extensively explored in action-related research. This is the first action dataset to include EMG modalities, aiming to contribute to interdisciplinary fields such as human motion analysis, computer vision, machine learning, and biomechanics.
创建时间:
2019-08-06
原始信息汇总

EV-Action数据集概述

数据集特点

  • 多模态数据:包含RGB、深度、肌电图(EMG)和两种骨骼模态。
  • 高质量骨骼数据:通过动作捕捉系统获取,提供更全面的动作信息,包括骨骼、轨迹、加速度,具有更高的精度和采样频率。
  • 引入EMG模态:首次在动作数据集中包含EMG,为视觉和非视觉模态提供补充信息。

数据收集

  • 设备配置:使用8个Vicon红外摄像头和Kinect-V2系统,以及4个EMG传感器。
  • 采集环境:在一个4.6m x 4.6m的房间内,摄像头覆盖3m x 3m的可检测区域。
  • EMG传感器:捕捉16位EMG信号,采样频率为1000Hz,覆盖20-450Hz的肌电信号频率范围。

数据集应用

  • 动作识别框架:提出一个基于EMG的动作识别框架,展示EMG在人类动作分析中的有效性。
  • 基准测试:为每种模态提供实验设置和最先进的基准,验证EMG模态的互补性。

预期贡献

  • 预期对人类动作分析、计算机视觉、机器学习、生物力学等跨学科领域做出显著贡献。
AI搜集汇总
数据集介绍
main_image_url
构建方式
EV-Action数据集的构建基于多模态数据采集系统,该系统整合了光学追踪与Kinect-V2设备,以捕捉RGB、深度、骨骼(Skeleton-K和Skeleton-V)以及肌电图(EMG)四种模态数据。数据采集中心由8个Vicon摄像头环绕布置,覆盖4.6米乘4.6米的房间,确保所有可追踪标记点均在摄像头的视野内。此外,单个Kinect传感器位于中心,面向前方,用于捕捉每个动作的前视图。每个受试者配备4个EMG传感器,分别位于前臂和胫骨肌肉的中部,以捕捉高频的16位EMG信号,频率高达1000 Hz,覆盖了骨骼EMG信号的整个频谱(20-450 Hz)。通过这种精密的数据采集系统,EV-Action数据集不仅提供了高质量的骨骼信息,还首次引入了EMG模态,为动作分析提供了全新的视角。
使用方法
EV-Action数据集的使用方法多样,适用于多种多模态动作分析任务。用户可以利用数据集中的RGB、深度、骨骼和EMG模态数据,进行动作识别、分类及行为分析等研究。具体而言,用户可以通过提取和融合不同模态的特征,构建多模态动作识别模型,以提升识别精度和鲁棒性。此外,数据集还提供了基准代码和实验设置,用户可以基于这些基准进行模型评估和比较。对于EMG模态的独特特性,用户可以探索其在动作识别中的独特贡献,并通过与其他模态的融合,进一步验证其互补性。数据集的开放性和多模态特性,使其成为跨学科研究的理想选择,尤其适用于计算机视觉、机器学习和生物力学等领域的研究者。
背景与挑战
背景概述
在多模态人体动作分析领域,现有数据集多集中于视觉模态,如RGB、深度和骨骼数据,而电生理信号模态的应用则相对匮乏。为填补这一空白,Lichen Wang等研究者在2020年IEEE国际面部与手势识别会议上提出了EV-Action数据集。该数据集首次整合了RGB、深度、电生理信号(EMG)及两种骨骼模态,旨在为人体动作分析提供更全面的信息。EV-Action数据集通过高精度运动捕捉系统和EMG传感器的部署,不仅提升了骨骼数据的精度和采样频率,还引入了EMG模态,为生物力学与计算机视觉的交叉研究提供了新的视角。该数据集的发布有望推动人体运动分析、计算机视觉及机器学习等多个领域的研究进展。
当前挑战
EV-Action数据集的构建面临多重挑战。首先,整合多种模态数据(如RGB、深度、骨骼和EMG)需要复杂的硬件设备和精确的同步技术,以确保各模态数据的时间一致性。其次,EMG信号的采集和处理涉及高频采样和信号去噪,这对数据质量和分析方法提出了较高要求。此外,如何有效融合视觉与非视觉模态数据,以提升动作识别的准确性和鲁棒性,是该数据集面临的主要研究挑战。最后,由于EMG模态在动作分析中的应用尚处于探索阶段,如何设计有效的EMG识别框架并验证其性能,也是该数据集需要解决的关键问题。
常用场景
经典使用场景
EV-Action数据集的经典使用场景主要集中在多模态人体动作分析领域。该数据集通过整合RGB、深度、肌电图(EMG)和两种骨骼模态,为研究人员提供了丰富的多模态数据,特别适用于开发和验证基于EMG的动作识别算法。其独特的EMG模态为动作识别提供了额外的生物力学信息,使得模型能够更准确地捕捉人体动作的细微变化。
解决学术问题
EV-Action数据集解决了现有数据集在多模态动作分析中缺乏肌电图(EMG)模态的问题。通过引入EMG模态,该数据集为生物力学与计算机视觉的交叉研究提供了新的视角,推动了动作识别技术的进步。此外,其高精度的骨骼模态数据也为动作轨迹和加速度的精确分析提供了可能,进一步提升了动作识别的准确性和鲁棒性。
实际应用
EV-Action数据集在实际应用中具有广泛的前景,特别是在康复医学、运动科学和人机交互领域。通过分析EMG信号,医生和康复专家可以更精确地评估患者的肌肉功能和动作执行能力,从而制定更有效的康复计划。在运动科学中,该数据集可以帮助研究人员分析运动员的动作模式,优化训练方案。此外,在人机交互中,基于EMG的动作识别技术可以提升用户界面的自然性和响应速度。
数据集最近研究
最新研究方向
在多模态人体动作分析领域,EV-Action数据集的引入为研究者提供了全新的视角。该数据集不仅包含了传统的视觉模态(如RGB、深度和骨骼数据),还首次引入了肌电图(EMG)模态,这一创新为动作识别和人体运动分析带来了新的可能性。EMG信号作为生物力学领域的重要指标,其与视觉模态的结合为研究者提供了更丰富的信息,揭示了视觉与非视觉模态之间的潜在关联。当前的研究方向主要集中在如何有效融合EMG与其他模态,以提升动作识别的准确性和鲁棒性。此外,EV-Action数据集的发布也为跨学科研究,如计算机视觉、机器学习和生物力学等领域的交叉应用提供了宝贵的资源。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

Figshare

Figshare是一个在线数据共享平台,允许研究人员上传和共享各种类型的研究成果,包括数据集、论文、图像、视频等。它旨在促进科学研究的开放性和可重复性。

figshare.com 收录

China Groundgroundwater Monitoring Network

该数据集包含中国地下水监测网络的数据,涵盖了全国范围内的地下水位、水质和相关环境参数的监测信息。数据包括但不限于监测站点位置、监测时间、水位深度、水质指标(如pH值、溶解氧、总硬度等)以及环境因素(如气温、降水量等)。

www.ngac.org.cn 收录

LIDC-IDRI

LIDC-IDRI 数据集包含来自四位经验丰富的胸部放射科医师的病变注释。 LIDC-IDRI 包含来自 1010 名肺部患者的 1018 份低剂量肺部 CT。

OpenDataLab 收录

数据堂—103,282张驾驶员行为标注数据

103,282张驾驶员行为标注数据涵盖多年龄段、多时间段、多种行为(危险驾驶行为、疲劳驾驶行为、视线偏移行为)。在标注方面,对人脸72关键点(包括瞳孔)、人脸属性、手势检测框、安全带检测框、瞳孔关键点、行为类别进行标注。本套驾驶员行为标注数据可用于驾驶员行为分析等任务

魔搭社区 收录

CAP-DATA

CAP-DATA数据集由长安大学交通学院的研究团队创建,包含11,727个交通事故视频,总计超过2.19百万帧。该数据集不仅标注了事故发生的时间窗口,还提供了详细的文本描述,包括事故前的实际情况、事故类别、事故原因和预防建议。数据集的创建旨在通过结合视觉和文本信息,提高交通事故预测的准确性和解释性,从而支持更安全的驾驶决策系统。

arXiv 收录