five

RAVDESS|情感识别数据集|多模态数据处理数据集

收藏
github2024-04-25 更新2024-05-31 收录
情感识别
多模态数据处理
下载链接:
https://github.com/Lamis-Amd/emotion-recognition-RAVDESS
下载链接
链接失效反馈
资源简介:
RAVDESS数据集包含短时(大约4秒长)的视频剪辑,记录了演员通过两句话表现出的不同情绪。我们将提取和结合RGB帧与MFCCs,并利用视频和音频信息源以实现更好的预测。

The RAVDESS dataset comprises short video clips, each approximately 4 seconds in length, capturing actors expressing various emotions through two spoken sentences. We will extract and integrate RGB frames with MFCCs (Mel-frequency cepstral coefficients), utilizing both video and audio information sources to achieve enhanced predictive performance.
创建时间:
2024-04-19
原始信息汇总

数据集概述:emotion-recognition-RAVDESS

数据集内容

  • 数据类型:包含短视频(约4秒),视频中演讲者通过2句话表达不同情绪。
  • 数据格式:mp4视频文件,标签信息包含在文件名中。

数据预处理

  • 音频处理
    • 去除视频开头和结尾的静音部分。
    • 从视频中提取音频。
    • 提取24个梅尔频率倒谱系数(MFCCs)。
    • 标准化MFCCs,采用零均值和单位方差。
    • 使用预填充统一样本长度。
  • 视觉处理
    • 从图像中提取面部。
    • 将面部图像大小调整为64x64。
    • 对帧进行下采样以减少复杂度。
    • 应用数据增强和缩放到[0, 1]。
  • 数据分割
    • 将数据集分割为训练、验证和测试集,确保同一演讲者的样本不同时出现在多个集合中。

模型构建

  • 音频子网络
    • BLSTM(64单元,返回序列)+ Dropout 0.5 + BLSTM(64单元)+ 密集层(128单元,ReLU)。
  • 视觉子网络
    • 选择视觉骨干网络,如VGG或ResNet架构,应用帧级处理。
    • 应用时间维度上的最大池化以减少复杂度。
  • 模型融合
    • 将音频和视觉子网络的最终隐藏表示连接。
    • 应用全连接层(256单元,ReLU),随后是另一个密集层(7单元,softmax)。

标签信息

  • 类别数量:8类,但通常将第1类(中性)和第2类(平静)合并为一类。
  • 标签编码:可选使用one-hot编码或保持标签在[0, 6]范围内,使用sparse_categorical_crossentropy损失。
AI搜集汇总
数据集介绍
main_image_url
构建方式
RAVDESS数据集的构建基于对视频和音频数据的精细处理。首先,从视频中提取音频,并使用librosa库计算24个梅尔频率倒谱系数(MFCCs),通过标准化和预填充确保样本长度一致。视觉部分则通过提取面部图像并调整至64x64分辨率,随后进行数据增强和缩放。此外,通过合并相似情绪类别(如中性与平静),数据集的复杂性得以降低。最终,数据集被划分为训练、验证和测试集,确保同一说话者的样本不会出现在多个集合中。
使用方法
使用RAVDESS数据集时,首先需下载并解压数据,随后进行预处理,包括音频的MFCC提取和视频的面部图像提取。接着,将数据划分为训练、验证和测试集,并创建生成器以迭代处理音频和视频表示。模型构建方面,可以分别构建音频和视频子网络,并通过连接最终隐藏层进行多模态融合。最终,使用softmax层进行情绪分类,实现情绪识别任务。
背景与挑战
背景概述
RAVDESS数据集,全称为Ryerson Audio-Visual Database of Emotional Speech and Song,是由Ryerson大学创建的一个多模态情感识别数据集。该数据集包含了约4秒长的视频片段,记录了演员通过两句话表达不同情感的过程。RAVDESS数据集的核心研究问题是如何通过结合视频和音频信息来提高情感识别的准确性。自2018年发布以来,RAVDESS数据集已成为情感计算领域的重要资源,推动了多模态深度学习技术的发展,特别是在情感识别和分析方面。
当前挑战
RAVDESS数据集在构建和应用过程中面临多项挑战。首先,数据集的预处理步骤复杂,包括从视频中提取音频、去除静音部分、计算梅尔频率倒谱系数(MFCC)等,这些步骤需要精确的技术实现。其次,视频和音频信息的融合是一个技术难点,如何有效地结合两种模态的信息以提高情感识别的准确性,是当前研究的重点。此外,数据集中的情感类别(如中性与平静)相似度高,如何区分这些类别也是一个挑战。最后,数据集的分割和生成器的设计需要确保训练、验证和测试集的独立性,以避免数据泄露。
常用场景
经典使用场景
在情感识别领域,RAVDESS数据集被广泛用于构建多模态深度神经网络。该数据集包含约4秒长的视频片段,记录了演员通过两句话表达不同情感的过程。通过提取视频中的RGB帧和音频中的梅尔频率倒谱系数(MFCCs),结合视频和音频信息,研究人员能够实现更精确的情感预测。这种多模态融合的方法在情感识别任务中表现出色,为后续研究提供了坚实的基础。
解决学术问题
RAVDESS数据集解决了情感识别研究中的多模态数据融合问题。传统方法往往依赖单一模态(如视频或音频)进行情感分析,而RAVDESS通过提供同步的视频和音频数据,使得研究人员能够探索多模态融合的有效性。这不仅提升了情感识别的准确性,还为多模态学习提供了新的研究方向,推动了情感计算领域的发展。
实际应用
RAVDESS数据集在实际应用中具有广泛的前景。例如,在人机交互领域,通过分析用户的面部表情和语音情感,系统可以更智能地响应用户需求,提升用户体验。此外,在心理健康监测中,该数据集可用于开发情感识别工具,帮助识别和干预潜在的心理问题。这些应用不仅提高了技术的实用性,还为社会福祉带来了积极影响。
数据集最近研究
最新研究方向
在情感识别领域,RAVDESS数据集的最新研究方向主要集中在多模态深度神经网络的构建与优化。研究者们通过整合视频和音频信息,特别是提取RGB帧和梅尔频率倒谱系数(MFCCs),以提升情感检测的准确性。此外,研究还涉及数据预处理技术的改进,如使用ffmpeg过滤器去除视频片段中的静音部分,以及通过librosa库提取和标准化音频特征。视觉表示方面,研究者们探索了不同的面部特征提取方法,如使用cv2.CascadeClassifier或DLIB包,并结合数据增强技术以提高模型的鲁棒性。模型构建方面,研究不仅关注传统的BLSTM和VGG-like架构,还尝试了更复杂的ResNet和Inception结构,以及3D卷积网络,以期在情感识别任务中取得突破。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4099个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

中国区域地面气象要素驱动数据集 v2.0(1951-2024)

中国区域地面气象要素驱动数据集(China Meteorological Forcing Data,以下简称 CMFD)是为支撑中国区域陆面、水文、生态等领域研究而研发的一套高精度、高分辨率、长时间序列数据产品。本页面发布的 CMFD 2.0 包含了近地面气温、气压、比湿、全风速、向下短波辐射通量、向下长波辐射通量、降水率等气象要素,时间分辨率为 3 小时,水平空间分辨率为 0.1°,时间长度为 74 年(1951~2024 年),覆盖了 70°E~140°E,15°N~55°N 空间范围内的陆地区域。CMFD 2.0 融合了欧洲中期天气预报中心 ERA5 再分析数据与气象台站观测数据,并在辐射、降水数据产品中集成了采用人工智能技术制作的 ISCCP-ITP-CNN 和 TPHiPr 数据产品,其数据精度较 CMFD 的上一代产品有显著提升。 CMFD 历经十余年的发展,其间发布了多个重要版本。2019 年发布的 CMFD 1.6 是完全采用传统数据融合技术制作的最后一个 CMFD 版本,而本次发布的 CMFD 2.0 则是 CMFD 转向人工智能技术制作的首个版本。此版本与 1.6 版具有相同的时空分辨率和基础变量集,但在其它诸多方面存在大幅改进。除集成了采用人工智能技术制作的辐射和降水数据外,在制作 CMFD 2.0 的过程中,研发团队尽可能采用单一来源的再分析数据作为输入并引入气象台站迁址信息,显著缓解了 CMFD 1.6 中因多源数据拼接和气象台站迁址而产生的虚假气候突变。同时,CMFD 2.0 数据的时间长度从 CMFD 1.6 的 40 年大幅扩展到了 74 年,并将继续向后延伸。CMFD 2.0 的网格空间范围虽然与 CMFD 1.6 相同,但其有效数据扩展到了中国之外,能够更好地支持跨境区域研究。为方便用户使用,CMFD 2.0 还在基础变量集之外提供了若干衍生变量,包括近地面相对湿度、雨雪分离降水产品等。此外,CMFD 2.0 摒弃了 CMFD 1.6 中通过 scale_factor 和 add_offset 参数将实型数据化为整型数据的压缩技术,转而直接将实型数据压缩存储于 NetCDF4 格式文件中,从而消除了用户使用数据时进行解压换算的困扰。 本数据集原定版本号为 1.7,但鉴于本数据集从输入数据到研制技术都较上一代数据产品有了大幅的改变,故将其版本号重新定义为 2.0。

国家青藏高原科学数据中心 收录

波士顿房价数据集

波士顿房价数据集是一个经典的机器学习数据集,通常用于回归任务,尤其是房价预测。下方文档中有所有字段顺序的描述。

阿里云天池 收录

UCF-Crime

UCF-犯罪数据集是128小时视频的新型大规模第一个数据集。它包含1900年长而未修剪的真实世界监控视频,其中包含13个现实异常,包括虐待,逮捕,纵火,殴打,道路交通事故,入室盗窃,爆炸,战斗,抢劫,射击,偷窃,入店行窃和故意破坏。之所以选择这些异常,是因为它们对公共安全有重大影响。这个数据集可以用于两个任务。首先,考虑一组中的所有异常和另一组中的所有正常活动的一般异常检测。第二,用于识别13个异常活动中的每一个。

OpenDataLab 收录

学生课堂行为数据集 (SCB-dataset3)

学生课堂行为数据集(SCB-dataset3)由成都东软学院创建,包含5686张图像和45578个标签,重点关注六种行为:举手、阅读、写作、使用手机、低头和趴桌。数据集覆盖从幼儿园到大学的不同场景,通过YOLOv5、YOLOv7和YOLOv8算法评估,平均精度达到80.3%。该数据集旨在为学生行为检测研究提供坚实基础,解决教育领域中学生行为数据集的缺乏问题。

arXiv 收录

中国交通事故深度调查(CIDAS)数据集

交通事故深度调查数据通过采用科学系统方法现场调查中国道路上实际发生交通事故相关的道路环境、道路交通行为、车辆损坏、人员损伤信息,以探究碰撞事故中车损和人伤机理。目前已积累深度调查事故10000余例,单个案例信息包含人、车 、路和环境多维信息组成的3000多个字段。该数据集可作为深入分析中国道路交通事故工况特征,探索事故预防和损伤防护措施的关键数据源,为制定汽车安全法规和标准、完善汽车测评试验规程、

北方大数据交易中心 收录