five

DH-FaceEmoVid-150|面部情感识别数据集|情感控制数据集

收藏
arXiv2025-01-03 更新2025-01-07 收录
面部情感识别
情感控制
下载链接:
http://arxiv.org/abs/2501.01808v1
下载链接
链接失效反馈
资源简介:
DH-FaceEmoVid-150数据集是由浙江实验室、理想汽车、哈尔滨工业大学、浙江大学和中国科学院大学杭州高等研究院联合创建的高分辨率(1080p)视频数据集,专门用于人类面部情感表达的研究。该数据集包含150小时的视频内容,涵盖了六种基本情绪(愤怒、厌恶、恐惧、快乐、悲伤、惊讶)和四种复合情绪(愤怒厌恶、悲伤惊讶、悲伤恐惧、快乐惊讶)。数据集的创建过程包括从多种来源收集数据,并通过情感强度过滤、动作单元(AU)标签提取和文本指令生成等步骤进行优化。该数据集的应用领域主要集中在音频驱动的肖像动画生成,旨在解决现有模型在生成复杂情感和细微面部表情方面的局限性,推动情感控制技术的发展。
提供机构:
浙江实验室, 理想汽车, 哈尔滨工业大学, 浙江大学, 中国科学院大学杭州高等研究院
创建时间:
2025-01-03
AI搜集汇总
数据集介绍
main_image_url
构建方式
DH-FaceEmoVid-150数据集的构建过程基于对多种情感表达的精细捕捉与标注。研究者从多个来源收集了150小时的高清视频数据,涵盖了六种基本情绪(愤怒、厌恶、恐惧、快乐、悲伤、惊讶)以及四种复合情绪(愤怒-厌恶、悲伤-惊讶、悲伤-恐惧、快乐-惊讶)。为了确保数据质量,研究者通过情感强度筛选视频,并使用LibreFace进行情感识别,剔除模糊情感的视频。此外,数据集还通过提取面部动作单元(AU)标签,并结合GPT-4V生成细粒度的文本描述,进一步丰富了数据的多模态信息。
特点
DH-FaceEmoVid-150数据集以其高分辨率(1080p)和丰富的情感表达类别著称。该数据集不仅包含六种基本情绪,还引入了四种复合情绪,为情感驱动的模型提供了更广泛的训练潜力。每个视频均配备了多模态信息,如AU标签、文本描述和情感类别,使得数据集在情感表达的多样性和精细度上具有显著优势。此外,数据集的规模(150小时)和多样性(80名演员)也为模型的泛化能力提供了坚实基础。
使用方法
DH-FaceEmoVid-150数据集主要用于训练和评估情感驱动的肖像动画生成模型。研究者可以通过该数据集训练模型以生成具有复杂情感表达和细腻面部细节的动画。具体使用方法包括:首先,利用数据集中的基本情绪视频训练单一情感专家网络;其次,通过复合情绪视频训练门控网络,以合成复杂情感表达。此外,数据集的多模态信息(如AU标签和文本描述)可用于实现细粒度的情感控制。通过结合Mixture of Emotion Experts(MoEE)模型,研究者能够生成自然且生动的单一和复合情感表达。
背景与挑战
背景概述
DH-FaceEmoVid-150数据集由浙江大学、浙江实验室、理想汽车等机构的研究团队于2025年提出,旨在解决音频驱动肖像动画中的情感表达问题。该数据集包含150小时的高清视频,涵盖了六种基本情感(愤怒、厌恶、恐惧、快乐、悲伤、惊讶)和四种复合情感(愤怒-厌恶、悲伤-惊讶、悲伤-恐惧、快乐-惊讶)。通过引入多模态信息(如动作单元标签、文本描述和情感类别),DH-FaceEmoVid-150为情感驱动模型的训练提供了丰富的资源。该数据集的发布显著推动了情感驱动肖像动画领域的研究,特别是在复杂情感表达和面部细节生成方面。
当前挑战
DH-FaceEmoVid-150数据集在构建和应用过程中面临多重挑战。首先,情感表达的多样性和复杂性使得单一情感模型的构建变得困难,尤其是在复合情感生成方面,缺乏精确的框架来建模基本情感的组合。其次,数据集的构建需要捕捉大量高质量的情感表达视频,这对数据采集和标注提出了极高的要求。此外,如何将多模态信息(如音频、文本和标签)有效整合,以实现更灵活的情感控制,也是一个重要的技术挑战。最后,数据集的规模和质量直接影响模型的泛化能力,如何在有限的数据资源下提升模型的生成效果,是研究者需要持续探索的问题。
常用场景
经典使用场景
DH-FaceEmoVid-150数据集在音频驱动的肖像动画生成领域中具有广泛的应用。该数据集通过提供六种基本情绪和四种复合情绪的高质量视频内容,为模型训练提供了丰富的情绪表达数据。其经典使用场景包括生成具有复杂情绪和细微面部表情的虚拟人物动画,尤其是在需要精确同步音频与面部表情的应用中,如虚拟助手、远程通信和娱乐产业。
衍生相关工作
DH-FaceEmoVid-150数据集的发布催生了一系列相关研究工作。例如,基于该数据集开发的Mixture of Emotion Experts (MoEE)模型在音频驱动的肖像动画生成中取得了显著进展。此外,该数据集还启发了其他研究团队开发新的情绪控制模块和多模态输入对齐技术,进一步推动了情绪驱动模型的发展。这些衍生工作不仅提升了模型的生成质量,还为该领域的未来研究提供了新的方向。
数据集最近研究
最新研究方向
近年来,音频驱动的虚拟形象生成技术在精确的音频同步方面取得了显著进展。然而,生成逼真的对话视频不仅需要音频同步,还需捕捉广泛的情感和微妙的面部表情。DH-FaceEmoVid-150数据集的推出,填补了现有数据集中情感表达多样性的不足,特别是在复合情感生成方面的空白。该数据集包含了六种基本情感和四种复合情感,为情感驱动模型提供了丰富的训练素材。通过结合Mixture of Emotion Experts (MoEE)模型,研究人员能够精确合成单一和复合情感状态,显著提升了情感生成的自然性和多样性。这一进展不仅在娱乐产业中具有重要应用,还在远程通信、虚拟助手和心理健康等领域展现了广阔的前景。
相关研究论文
  • 1
    MoEE: Mixture of Emotion Experts for Audio-Driven Portrait Animation浙江实验室, 理想汽车, 哈尔滨工业大学, 浙江大学, 中国科学院大学杭州高等研究院 · 2025年
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4099个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

学生课堂行为数据集 (SCB-dataset3)

学生课堂行为数据集(SCB-dataset3)由成都东软学院创建,包含5686张图像和45578个标签,重点关注六种行为:举手、阅读、写作、使用手机、低头和趴桌。数据集覆盖从幼儿园到大学的不同场景,通过YOLOv5、YOLOv7和YOLOv8算法评估,平均精度达到80.3%。该数据集旨在为学生行为检测研究提供坚实基础,解决教育领域中学生行为数据集的缺乏问题。

arXiv 收录

中国气象数据

本数据集包含了中国2023年1月至11月的气象数据,包括日照时间、降雨量、温度、风速等关键数据。通过这些数据,可以深入了解气象现象对不同地区的影响,并通过可视化工具揭示中国的气温分布、降水情况、风速趋势等。

github 收录

UAV123

从低空无人机捕获的视频与流行的跟踪数据集 (如OTB50,OTB100,VOT2014,VOT2015,TC128和ALOV300) 中的视频本质上不同。因此,我们提出了一个新的数据集 (UAV123),其序列来自空中视点,其子集用于长期空中跟踪 (UAV20L)。我们新的UAV123数据集包含总共123个视频序列和超过110K帧,使其成为仅次于ALOV300的第二大对象跟踪数据集。所有序列都用直立的边界框完全注释。数据集可以很容易地与视觉跟踪器基准集成。它包括无人机数据集的所有边界框和属性注释。还请使用包含序列和跟踪器配置的修改后的文件 “configSeqs.m” 和 “configTrackers.m” 下载修改后的跟踪器基准。另外,请注意,文件 “perfPlot.m” 已根据本文中描述的属性进行了修改以进行评估。

OpenDataLab 收录

Fruits-360

一个高质量的水果图像数据集,包含多种水果的图像,如苹果、香蕉、樱桃等,总计42345张图片,分为训练集和验证集,共有64个水果类别。

github 收录

flames-and-smoke-datasets

该仓库总结了多个公开的火焰和烟雾数据集,包括DFS、D-Fire dataset、FASDD、FLAME、BoWFire、VisiFire、fire-smoke-detect-yolov4、Forest Fire等数据集。每个数据集都有详细的描述,包括数据来源、图像数量、标注信息等。

github 收录