five

FER2013, CK+, Genius HR Dataset|情绪识别数据集|心理健康数据集

收藏
github2025-01-30 更新2025-02-10 收录
情绪识别
心理健康
下载链接:
https://github.com/mujiyantosvc/Facial-Expression-Recognition-FER-for-Mental-Health-Detection-
下载链接
链接失效反馈
资源简介:
FER2013: 一个包含35,887张灰度图像的数据集,标记了七种情绪(愤怒、厌恶、恐惧、快乐、悲伤、惊讶、中性)。CK+: 一个包含920张图像的小型数据集,标记了八种情绪。Genius HR Dataset: 一个用于工作场所心理健康分析的真实世界数据集。
创建时间:
2025-01-06
原始信息汇总

Facial Expression Recognition (FER) for Mental Health Detection

Overview

  • Purpose: Analyze facial expressions to detect mental health conditions using AI models like Swin Transformer, Vision Transformers (ViT), and Custom CNNs.
  • Applications: Healthcare, HR, and research for early detection of mental health issues such as anxiety, depression, OCD, PTSD, and stress-related disorders.
  • Key Features: High-accuracy emotion detection, integration with mental health scoring systems, real-time emotion detection systems.

Repository Structure

FER-for-Mental-Health-Detection ├── Models │ ├── Swin_Transformer │ ├── Custom_CNN │ ├── ViT_Model │ └── Other_Models ├── datasets ├── images ├── utilities ├── README.md ├── usage_guide.md ├── LICENSE └── requirements.txt

Datasets

  • FER2013: 35,887 grayscale images labeled with seven emotions. Source: FER2013 on Kaggle.
  • CK+: 920 images with eight emotion labels. Source: CK+ Dataset Official Site.
  • Genius HR Dataset: Real-world dataset for workplace mental health analysis. Source: Proprietary dataset.

Installation

  • Prerequisites: Python 3.10+, PyTorch 2.0+, CUDA-enabled GPU (recommended).
  • Steps: Clone repository, create virtual environment, update pip, install dependencies, verify installation, download FER2013 dataset, preprocess dataset, run model.

Models and Architectures

  • Swin Transformer: Hierarchical transformer for visual tasks. Reference: Swin Transformer Paper.
  • Custom CNN: Lightweight CNN for real-time emotion detection.
  • Vision Transformer (ViT): Captures long-range dependencies in facial features. Reference: ViT Paper.
  • Additional Models: MobileNet, EfficientNet, and hybrid architectures.

Applications

  • Human Resources: Monitor and assess employee mental health.
  • Healthcare: Real-time emotion detection for early interventions.
  • Research: Advance AI in mental health detection.

Citation

  • Published in Engineering, Technology & Applied Science Research, indexed in Scopus Q2.

Contact

AI搜集汇总
数据集介绍
main_image_url
构建方式
FER2013数据集的构建汇集了35,887张灰度图像,每张图像均标注有七种情绪之一(愤怒、厌恶、恐惧、快乐、悲伤、惊讶、中性)。该数据集的构建旨在为面部表情识别研究提供一个大规模、多样化的资源,通过从不同个体和表情中收集数据,以涵盖广泛的面部表情变化和情绪表达。
特点
FER2013数据集的特点在于其规模庞大、多样性丰富,且标注详尽。它包含了不同年龄、性别和种族的个体面部表情,能够有效支持研究者对面部表情识别算法的训练和测试。此外,该数据集的开放性使得它成为学术界和工业界广泛使用的研究资源。
使用方法
使用FER2013数据集时,用户首先需要确保具备适当的计算环境和软件依赖。数据集可以通过Kaggle平台下载,并需进行解压和预处理以适应不同的模型训练需求。用户应遵循数据集的使用协议,并在模型训练和评估过程中遵循数据处理的最佳实践。
背景与挑战
背景概述
FER2013数据集,全称为Facial Expression Recognition 2013,是一个用于面部表情识别的重要数据集,创建于2013年,包含了35,887张灰度图像,这些图像被标记为七种情绪:愤怒、厌恶、恐惧、快乐、悲伤、惊讶和中立。该数据集由多个研究人员和机构共同创建,旨在推动心理健康检测技术的发展,特别是在人工智能辅助下的面部表情识别领域。FER2013数据集对于相关领域的影响力显著,它不仅帮助研究人员开发出能够识别微妙表情变化的模型,而且对于早期发现心理健康风险具有重要作用。CK+数据集则是一个较小的数据集,包含920张图像,具有八种情绪标签。这些数据集的构建,为心理健康检测领域提供了宝贵的资源。
当前挑战
在构建FER2013和CK+数据集的过程中,研究人员面临的挑战主要包括:1) 数据收集和标注的准确性,确保所收集的表情图像能够真实反映人类情绪的多样性;2) 数据集的规模和质量平衡,既要求数据集足够大以训练出具有泛化能力的模型,又要确保图像质量满足研究需求;3) 在实际应用中,模型对于不同人种、年龄、性别的普适性和准确性问题;4) 构建过程中遇到的隐私保护和伦理问题,特别是在使用真实世界数据时,如何确保数据主体的权益不受侵犯。
常用场景
经典使用场景
FER2013数据集在面部表情识别领域中被广泛使用,其经典的使用场景包括检测个体的情绪状态,如快乐、悲伤、愤怒等。通过深度学习模型训练,该数据集能够辅助研究人员准确识别出微妙的面部表情变化,进而推断出个体的心理健康状况。
衍生相关工作
基于FER2013数据集,衍生出了众多相关工作,包括但不限于使用不同深度学习架构进行面部表情识别的研究,以及将这些识别技术应用于心理健康评估和干预的策略研究,进一步推动了心理健康检测技术的发展。
数据集最近研究
最新研究方向
近期,面部表情识别研究在心理健康检测领域展现出显著的应用潜力。以FER2013、CK+和Genius HR Dataset等数据集为基础,研究者们采用如Swin Transformer等先进的深度学习模型,致力于捕捉面部表情的细微变化,以实现对焦虑、抑郁等心理健康的早期识别。此类研究不仅推动了人工智能在心理健康评估中的应用,也为人类提供了早期干预和改善心理健康的可能途径。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

LibriSpeech

LibriSpeech 是一个大约 1000 小时的 16kHz 英语朗读语音语料库,由 Vassil Panayotov 在 Daniel Povey 的协助下编写。数据来自 LibriVox 项目的已读有声读物,并经过仔细分割和对齐。

OpenDataLab 收录

UIEB, U45, LSUI

本仓库提供了水下图像增强方法和数据集的实现,包括UIEB、U45和LSUI等数据集,用于支持水下图像增强的研究和开发。

github 收录

Breast Cancer Dataset

该项目专注于清理和转换一个乳腺癌数据集,该数据集最初由卢布尔雅那大学医学中心肿瘤研究所获得。目标是通过应用各种数据转换技术(如分类、编码和二值化)来创建一个可以由数据科学团队用于未来分析的精炼数据集。

github 收录

ImageNet-1K(ILSVRC2012)

ImageNet-1K(ILSVRC2012)是一个大规模的图像分类数据集,包含1000个类别的图像,用于训练和验证图像分类模型。

github 收录

UniMed

UniMed是一个大规模、开源的多模态医学数据集,由穆罕默德·本·扎耶德人工智能大学等机构创建,包含超过530万张图像-文本对,涵盖六种不同的医学成像模态:X射线、CT、MRI、超声、病理和眼底。数据集通过利用大型语言模型(LLMs)将特定模态的分类数据集转换为图像-文本格式,并结合现有的医学图像-文本数据,实现了可扩展的视觉-语言模型(VLM)预训练。UniMed旨在解决医学领域中公开可用的大规模图像-文本数据稀缺的问题,适用于多种医学成像任务,如零样本分类和跨模态泛化。

arXiv 收录