Varying-view RGB-D Action Dataset|人体动作识别数据集|多视角分析数据集
收藏arXiv2019-04-24 更新2024-06-21 收录
下载链接:
https://github.com/HRI-UESTC/CFMHRI-RGB-D-action-database
下载链接
链接失效反馈资源简介:
Varying-view RGB-D Action Dataset是由电子科技大学未来媒体研究中心创建的大型数据集,旨在支持任意视角的人体动作识别研究。该数据集包含从8个固定视角和360度全视角捕获的RGB视频、深度图像和骨骼序列,总计邀请了118人执行40种动作类别。数据集不仅视角多样,样本数量庞大,而且是首个包含完整360度视角序列的数据集,适用于多视角、跨视角及任意视角的动作分析。此外,数据集还应用于健身辅助机器人等领域,为解决视角变化带来的动作识别挑战提供了丰富的数据资源。
提供机构:
电子科技大学未来媒体研究中心
创建时间:
2019-04-24
AI搜集汇总
数据集介绍

构建方式
该数据集通过使用Microsoft Kinect v2传感器采集了三种模态的动作数据,包括RGB视频、深度图像和骨骼序列。数据集涵盖了8个固定视角和360°视角变化序列,共邀请了118名参与者执行40种动作类别,总计收集了25,600个视频样本。数据集的设计旨在为任意视角的动作识别提供充足的数据支持,通过模拟真实的人机交互场景,确保数据的多视角覆盖和视角变化的连续性。
使用方法
该数据集适用于多视角、跨视角和任意视角的动作识别研究。研究者可以使用固定视角的样本进行模型训练,然后利用视角变化序列进行测试,以评估模型在不同视角下的泛化能力。此外,数据集的三种模态数据可以单独或联合使用,以探索不同特征在动作识别中的作用。为了进一步提高识别性能,研究者还可以结合数据集提供的骨骼序列和深度信息,设计新的特征提取和分类方法。
背景与挑战
背景概述
在人机交互(HRI)应用中,从任意视角识别人类动作的需求日益增长。然而,现有的动作识别研究主要集中在单一视角或多视角识别上,难以满足HRI应用中从任意视角识别动作的需求。为了填补这一空白,Yanli Ji等人于2019年创建了Varying-view RGB-D Action Dataset。该数据集包含了从8个固定视角和覆盖360度视角范围的连续视角序列中捕获的RGB视频、深度图像和骨架序列。数据集包含了118名参与者执行的40种动作类别,共计25,600个视频样本。该数据集不仅涉及更多的参与者、更多的视角,更重要的是,它是首个包含完整360度连续视角序列的数据集,为多视角、跨视角和任意视角的动作分析提供了充足的数据支持。
当前挑战
构建Varying-view RGB-D Action Dataset面临的主要挑战包括:1) 从任意视角捕获动作数据,这导致了动作遮挡和姿态变化的问题;2) 缺乏适用于任意视角动作识别的数据集,这为研究设置了障碍。此外,数据集的构建过程中,如何确保在不同视角下捕获的数据质量一致,以及如何处理视角变化带来的数据噪声,也是需要解决的关键问题。这些挑战不仅影响了数据集的质量,也对后续的动作识别算法提出了更高的要求。
常用场景
经典使用场景
在多视角和任意视角的人类行为识别领域,Varying-view RGB-D Action Dataset 被广泛应用于研究如何从不同视角准确识别和分析人类动作。该数据集通过包含8个固定视角和360度连续视角的RGB视频、深度图像和骨架序列,为研究人员提供了一个全面的实验平台。经典的使用场景包括开发和验证多视角行为识别算法,特别是在人机交互(HRI)应用中,机器人需要从任意视角理解人类行为。
解决学术问题
Varying-view RGB-D Action Dataset 解决了当前行为识别研究中主要集中在单一视角或多视角识别,难以满足人机交互应用中从任意视角识别行为的需求。该数据集通过提供覆盖整个360度视角的连续视角序列,填补了现有数据集在任意视角行为识别方面的空白。这不仅推动了多视角和跨视角行为分析的研究,还为开发能够在复杂视角变化下有效工作的识别算法提供了数据支持。
实际应用
在实际应用中,Varying-view RGB-D Action Dataset 为家庭服务机器人、监控系统以及虚拟现实(VR)和增强现实(AR)应用提供了关键数据支持。例如,家庭服务机器人可以通过该数据集训练,从而在移动过程中从任意视角准确识别家庭成员的行为,提升交互的自然性和效率。此外,该数据集还可用于开发和优化监控系统,使其能够在复杂环境中从不同视角捕捉和分析人类行为。
数据集最近研究
最新研究方向
在人机交互(HRI)领域,任意视角的人类动作识别成为一个前沿研究方向。Varying-view RGB-D Action Dataset的最新研究聚焦于解决从任意视角识别动作的挑战,这一研究方向不仅推动了多视角和跨视角动作分析的发展,还为HRI应用提供了关键支持。通过引入包含360°视角变化序列的大规模RGB-D动作数据集,研究者们能够开发和验证新的算法,如View-guided Skeleton CNN(VS-CNN),以提升任意视角动作识别的准确性和鲁棒性。这些研究不仅在学术界引起了广泛关注,也在实际应用中展现了巨大的潜力,特别是在需要机器人从不同视角理解人类行为的场景中。
相关研究论文
- 1A Large-scale Varying-view RGB-D Action Dataset for Arbitrary-view Human Action Recognition电子科技大学未来媒体研究中心 · 2019年
以上内容由AI搜集并总结生成



