five

Nexdata/Sign_Language_Gestures_Recognition_Data|手语识别数据集|计算机视觉数据集

收藏
hugging_face2024-02-04 更新2024-03-04 收录
手语识别
计算机视觉
下载链接:
https://hf-mirror.com/datasets/Nexdata/Sign_Language_Gestures_Recognition_Data
下载链接
链接失效反馈
资源简介:
180,718张图片 - 手语手势识别数据。数据多样性包括多种场景、41种静态手势、95种动态手势、多种拍摄角度和多种光照条件。在数据标注方面,标注了21个关键点、手势类型和手势属性。该数据集可用于手势识别和手语翻译等任务。
提供机构:
Nexdata
原始信息汇总

数据集概述

数据集规模

  • 包含180,718张图像。

数据多样性

  • 涵盖多种场景。
  • 包括41种静态手势和95种动态手势。
  • 涉及多种拍摄角度和光照条件。

数据标注

  • 标注了21个地标点。
  • 标注了手势类型和手势属性。

应用领域

  • 适用于手势识别和手语翻译等任务。
AI搜集汇总
数据集介绍
main_image_url
构建方式
Nexdata/Sign_Language_Gestures_Recognition_Data数据集的构建,采取了在多样化场景下捕捉手语手势的方式,包含静态与动态手势,以及不同的拍摄角度和光线条件。数据集的构建过程中,对每个手势进行了详尽的标注,包括21个标记点、手势类型及属性,旨在为手势识别和手语翻译等任务提供精确的训练数据。
特点
该数据集的特点在于其数据的多样性,涵盖了180,718张图片,其中包括83,013张静态手势图片和97,705张动态手势图片。数据集的人口分布均衡,包含了亚洲不同性别和年龄层次的人群。此外,数据集在室内外多种场景下收集,确保了手势识别算法的泛化能力。
使用方法
使用Nexdata/Sign_Language_Gestures_Recognition_Data数据集时,用户可以直接利用.jpg格式的图片数据进行模型训练,同时.json格式的标注文件提供了详细的标注信息。数据集的商用许可为cc-by-nc-4.0,便于研究者在遵守许可协议的前提下,进行手势识别相关的研究与开发工作。
背景与挑战
背景概述
Nexdata/Sign_Language_Gestures_Recognition_Data数据集,诞生于对听障人士沟通方式的理解与支持的需求,由Nexdata团队精心构建。该数据集汇集了180,718张图像,涵盖了41种静态手势和95种动态手势,跨越多种场景、摄影角度及光线条件,旨在推动手势识别和手语翻译研究的发展。自推出以来,该数据集在计算机视觉与人机交互领域产生了广泛影响,为相关研究提供了宝贵资源。
当前挑战
该数据集在构建与应用过程中面临的挑战主要包括:如何在高多样性(包括场景、手势类型、摄影角度及光线条件)的图像中保持标注的精确性;如何确保跨不同种族、性别和年龄分布的用户在数据集中得到均衡代表;以及如何在静态与动态手势识别任务中,实现高精度的手势关键点定位。这些挑战对于提高数据集的实用性和研究价值至关重要。
常用场景
经典使用场景
在研究领域中,Nexdata/Sign_Language_Gestures_Recognition_Data数据集因其丰富的手势类别和多样的场景设置,成为了手势识别任务中的经典资源。研究者们通常利用该数据集进行机器学习和深度学习模型的训练,以实现对静态和动态手势的精确识别,进而推动手语识别与翻译技术的发展。
解决学术问题
该数据集解决了手语交流中的手势分类与识别问题,为听障人士与健听人士之间的交流提供了技术支持。它不仅提高了手势识别的准确性,还通过多样的人群、场景和光照条件,增强了模型的泛化能力和鲁棒性,为学术研究提供了可靠的数据基础。
衍生相关工作
基于该数据集,研究者们已经开展了一系列相关工作,如手语识别算法的改进、跨模态信息处理的探索,以及结合自然语言处理技术的手语翻译系统研发,这些都进一步拓展了手语识别领域的研究深度和广度。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4099个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

学生课堂行为数据集 (SCB-dataset3)

学生课堂行为数据集(SCB-dataset3)由成都东软学院创建,包含5686张图像和45578个标签,重点关注六种行为:举手、阅读、写作、使用手机、低头和趴桌。数据集覆盖从幼儿园到大学的不同场景,通过YOLOv5、YOLOv7和YOLOv8算法评估,平均精度达到80.3%。该数据集旨在为学生行为检测研究提供坚实基础,解决教育领域中学生行为数据集的缺乏问题。

arXiv 收录

HazyDet

HazyDet是由解放军工程大学等机构创建的一个大规模数据集,专门用于雾霾场景下的无人机视角物体检测。该数据集包含383,000个真实世界实例,收集自自然雾霾环境和正常场景中人工添加的雾霾效果,以模拟恶劣天气条件。数据集的创建过程结合了深度估计和大气散射模型,确保了数据的真实性和多样性。HazyDet主要应用于无人机在恶劣天气条件下的物体检测,旨在提高无人机在复杂环境中的感知能力。

arXiv 收录

MMAUD

MMAUD是一个综合的多模态反无人机数据集,用于检测、分类、跟踪和轨迹估计紧凑型商用无人机威胁。数据集包含多种传感器数据,如3D激光雷达、同步相机、毫米波雷达和音频阵列节点。

github 收录

MedDRA (Medical Dictionary for Regulatory Activities)

MedDRA是一个国际标准化的医学术语词典,主要用于药物和医疗器械的监管活动。它包含了详细的医学术语分类,如症状、诊断、治疗和药物不良反应等,广泛应用于药物安全监测、临床试验报告和监管文件中。

www.meddra.org 收录

CMNEE(Chinese Military News Event Extraction dataset)

CMNEE(Chinese Military News Event Extraction dataset)是国防科技大学、东南大学和清华大学联合构建的一个大规模的、基于文档标注的开源中文军事新闻事件抽取数据集。该数据集包含17,000份文档和29,223个事件,所有事件均基于预定义的军事领域模式人工标注,包括8种事件类型和11种论元角色。数据集构建遵循两阶段多轮次标注策略,首先通过权威网站获取军事新闻文本并预处理,然后依据触发词字典进行预标注,经领域专家审核后形成事件模式。随后,通过人工分批、迭代标注并持续修正,直至满足既定质量标准。CMNEE作为首个专注于军事领域文档级事件抽取的数据集,对推动相关研究具有显著意义。

github 收录