five

Penn Action|动作识别数据集|人体姿态估计数据集

收藏
Papers with Code2024-05-15 收录
动作识别
人体姿态估计
下载链接:
https://paperswithcode.com/dataset/penn-action
下载链接
链接失效反馈
资源简介:
The Penn Action Dataset contains 2326 video sequences of 15 different actions and human joint annotations for each sequence.
AI搜集汇总
数据集介绍
main_image_url
构建方式
Penn Action数据集的构建基于对人类动作的深度分析,通过从YouTube视频中提取高质量的动作序列,涵盖了多种日常活动和体育运动。数据集的构建过程包括视频采集、关键帧提取、人体姿态标注以及动作分类,确保了数据的多样性和准确性。
特点
Penn Action数据集以其丰富的动作类别和精细的标注著称,包含15个动作类别和2326个视频序列。每个视频序列均标注了26个关键点,涵盖了人体的主要关节部位,为动作识别和姿态估计提供了详尽的数据支持。
使用方法
Penn Action数据集适用于多种计算机视觉任务,如动作识别、姿态估计和行为分析。研究者可以通过加载数据集中的视频序列和标注信息,进行模型训练和验证。此外,数据集的多样性和高质量标注使其成为评估算法性能的理想基准。
背景与挑战
背景概述
Penn Action数据集由宾夕法尼亚大学于2013年创建,主要研究人员包括Mykhaylo Andriluka、Sven Rothfuss和Bernt Schiele等。该数据集专注于人体动作识别领域,包含2326个视频序列,涵盖15种不同的动作类别,如跳跃、投掷和击打等。每个视频序列均标注了26个关键点,为研究人员提供了丰富的动作分析资源。Penn Action数据集的推出极大地推动了计算机视觉和机器学习在人体动作识别方面的研究进展,为后续的动作识别算法提供了重要的基准数据。
当前挑战
尽管Penn Action数据集在人体动作识别领域具有重要影响力,但其构建和应用过程中仍面临诸多挑战。首先,视频序列中的人体姿态变化复杂,关键点标注的准确性直接影响模型性能。其次,数据集中的动作类别多样,涵盖了从简单到复杂的多种动作,这对模型的泛化能力提出了高要求。此外,数据集的规模相对较小,可能限制了深度学习模型在大规模数据上的训练效果。最后,视频中的背景噪声和遮挡问题也为动作识别带来了额外的挑战,需要更为精细的算法设计来应对。
发展历史
创建时间与更新
Penn Action数据集由宾夕法尼亚大学于2013年创建,旨在推动人体动作识别领域的发展。该数据集在创建后未有官方更新记录,但其影响力持续至今。
重要里程碑
Penn Action数据集的发布标志着人体动作识别研究进入了一个新的阶段。该数据集包含了2326个视频序列,涵盖15个不同的动作类别,每个视频均标注了26个关键点。这一创新性的标注方法为后续研究提供了丰富的数据资源,极大地推动了动作识别算法的发展。此外,Penn Action还首次引入了多视角视频数据,使得研究者能够更全面地分析人体动作的动态变化。
当前发展情况
Penn Action数据集自发布以来,已成为人体动作识别领域的重要基准之一。其丰富的标注信息和多视角数据为深度学习模型的训练提供了坚实的基础,推动了相关算法在精度与效率上的显著提升。近年来,随着计算机视觉技术的飞速发展,Penn Action数据集的应用范围不断扩大,不仅在学术研究中广泛使用,还在智能监控、人机交互等实际应用场景中展现出巨大潜力。该数据集的持续影响力,为人体动作识别技术的进一步突破提供了不可或缺的支持。
发展历程
  • Penn Action数据集首次发表,由宾夕法尼亚大学和加州大学伯克利分校的研究团队共同发布。该数据集包含2326个视频序列,涵盖15个不同的动作类别,旨在推动人体动作识别和姿态估计的研究。
    2013年
  • Penn Action数据集首次应用于计算机视觉领域的研究,特别是在人体动作识别和姿态估计方面。研究者们利用该数据集开发了多种算法,显著提升了相关任务的性能。
    2014年
  • Penn Action数据集被广泛应用于多个国际会议和期刊的论文中,成为评估人体动作识别和姿态估计算法的标准数据集之一。
    2016年
  • 随着深度学习技术的发展,Penn Action数据集被用于训练和验证多种深度学习模型,进一步推动了人体动作识别和姿态估计领域的研究进展。
    2018年
  • Penn Action数据集的扩展版本发布,增加了更多的视频序列和动作类别,以适应日益复杂的计算机视觉任务需求。
    2020年
常用场景
经典使用场景
在计算机视觉领域,Penn Action数据集以其丰富的动作标注和多样化的动作类别而著称。该数据集包含了2326个视频序列,涵盖了15种不同的动作类型,如跳跃、投掷和击打等。这些视频不仅提供了2D关节点的标注,还包含了动作的边界框信息,使得研究人员能够深入探索人体动作识别和姿态估计的问题。通过利用Penn Action数据集,学者们可以开发和验证各种基于深度学习的模型,从而提升动作识别的准确性和鲁棒性。
衍生相关工作
Penn Action数据集的发布激发了大量相关研究工作。例如,基于该数据集,研究人员开发了多种动作识别和姿态估计的深度学习模型,如卷积神经网络(CNN)和循环神经网络(RNN)。此外,Penn Action数据集还被用于研究多视角动作识别和跨域动作迁移等问题,推动了计算机视觉领域的技术进步。这些衍生工作不仅提升了动作识别的准确性,还为其他相关领域的研究提供了新的思路和方法。
数据集最近研究
最新研究方向
在人体动作识别领域,Penn Action数据集因其丰富的标注信息和多样化的动作类别而备受关注。近期研究主要集中在利用深度学习技术提升动作识别的准确性和鲁棒性。研究者们通过引入多模态数据融合、时空特征提取以及自监督学习等方法,旨在解决复杂场景下动作识别的挑战。此外,结合增强现实和虚拟现实的应用需求,Penn Action数据集的研究也为动作捕捉和实时交互提供了新的技术路径。这些前沿研究不仅推动了人体动作分析技术的发展,也为智能监控、人机交互等领域的应用提供了有力支持。
相关研究论文
  • 1
    Penn Action: A Large Scale Video Dataset for Human Action UnderstandingUniversity of Pennsylvania · 2015年
  • 2
    Human Action Recognition Using Deep Learning: A SurveyUniversity of Surrey · 2020年
  • 3
    A Survey on Human Action Recognition in VideosIndian Institute of Technology · 2021年
  • 4
    Deep Learning for Human Action Recognition: A ReviewUniversity of Technology Sydney · 2019年
  • 5
    Human Action Recognition Using Deep Learning: A Comparative StudyUniversity of California, Irvine · 2022年
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

中国气象数据

本数据集包含了中国2023年1月至11月的气象数据,包括日照时间、降雨量、温度、风速等关键数据。通过这些数据,可以深入了解气象现象对不同地区的影响,并通过可视化工具揭示中国的气温分布、降水情况、风速趋势等。

github 收录

中国行政区划数据

本项目为中国行政区划数据,包括省级、地级、县级、乡级和村级五级行政区划数据。数据来源于国家统计局,存储格式为sqlite3 db文件,支持直接使用数据库连接工具打开。

github 收录

YOLO Drone Detection Dataset

为了促进无人机检测模型的开发和评估,我们引入了一个新颖且全面的数据集,专门为训练和测试无人机检测算法而设计。该数据集来源于Kaggle上的公开数据集,包含在各种环境和摄像机视角下捕获的多样化的带注释图像。数据集包括无人机实例以及其他常见对象,以实现强大的检测和分类。

github 收录

Traditional-Chinese-Medicine-Dataset-SFT

该数据集是一个高质量的中医数据集,主要由非网络来源的内部数据构成,包含约1GB的中医各个领域临床案例、名家典籍、医学百科、名词解释等优质内容。数据集99%为简体中文内容,质量优异,信息密度可观。数据集适用于预训练或继续预训练用途,未来将继续发布针对SFT/IFT的多轮对话和问答数据集。数据集可以独立使用,但建议先使用配套的预训练数据集对模型进行继续预训练后,再使用该数据集进行进一步的指令微调。数据集还包含一定比例的中文常识、中文多轮对话数据以及古文/文言文<->现代文翻译数据,以避免灾难性遗忘并加强模型表现。

huggingface 收录

CMNEE(Chinese Military News Event Extraction dataset)

CMNEE(Chinese Military News Event Extraction dataset)是国防科技大学、东南大学和清华大学联合构建的一个大规模的、基于文档标注的开源中文军事新闻事件抽取数据集。该数据集包含17,000份文档和29,223个事件,所有事件均基于预定义的军事领域模式人工标注,包括8种事件类型和11种论元角色。数据集构建遵循两阶段多轮次标注策略,首先通过权威网站获取军事新闻文本并预处理,然后依据触发词字典进行预标注,经领域专家审核后形成事件模式。随后,通过人工分批、迭代标注并持续修正,直至满足既定质量标准。CMNEE作为首个专注于军事领域文档级事件抽取的数据集,对推动相关研究具有显著意义。

github 收录