five

Additional EmotiW dataset|情感分析数据集|群体行为数据集

收藏
github2023-11-29 更新2024-05-31 收录
情感分析
群体行为
下载链接:
https://github.com/wangyanan326/Additional-EmotiW-dataset
下载链接
链接失效反馈
资源简介:
该数据集包含用于群体凝聚力和情感理解任务的额外数据,包括静态和动态视觉数据的情境描述文本。

This dataset encompasses supplementary data for tasks related to group cohesion and emotional comprehension, incorporating contextual descriptive texts for both static and dynamic visual data.
创建时间:
2020-08-09
原始信息汇总

数据集概述

1. Group-based Cohesion Prediction (EmotiW2019)

  • 数据内容:包含GAF Cohesion数据集的图像描述文本,文本为日语,用于分析群体凝聚力水平。
  • 特征提取:提供从日语和英语文本中提取的BERT词嵌入特征,分别存储在train-bert-jp.h5/valid-bert-jp.h5train-bert-en.h5/valid-bert-en.h5文件中。
  • 数据获取:需联系EmotiW官员获取GAF 3.0数据集。

2. Audio-video Group Emotion Recognition (EmotiW2020)

  • 数据内容:包含VGAF数据集的视频描述文本,文本为日语,用于预测视频中的群体情绪。
  • 特征提取:提供从描述文本中提取的BERT词嵌入特征,存储在train-bert-jp-d768-VGAF.h5valid-bert-jp-d768-VGAF.h5文件中。
  • 数据获取:需联系EmotiW官员获取VGAF数据集。

数据使用许可

  • 许可限制:附加的语言数据仅可用于学术/非商业目的。
AI搜集汇总
数据集介绍
main_image_url
构建方式
Additional EmotiW数据集的构建基于对GAF和VGAF数据集的扩展,主要通过人工添加日语文本描述来增强数据的语义信息。对于GAF数据集,研究人员从人类交互的角度为图像添加了日语描述,并通过Google翻译API生成了相应的英文文本。此外,还利用京都大学和Google提供的预训练BERT模型提取了文本的词嵌入特征,并存储为H5文件。对于VGAF数据集,同样通过人工方式为视频添加了日语描述,并提供了相应的BERT词嵌入特征。
特点
该数据集的特点在于其丰富的语言上下文信息,特别是通过日语和英文的双语描述,为图像和视频中的群体凝聚力和情感理解提供了多维度的语义支持。此外,数据集还提供了预提取的BERT词嵌入特征,极大地方便了研究者在深度学习模型中的直接应用。数据集的构建注重细节,确保了描述文本与视觉数据的高度一致性,为相关领域的研究提供了高质量的基准数据。
使用方法
使用Additional EmotiW数据集时,研究者可以通过下载提供的H5文件直接获取BERT词嵌入特征,从而快速构建和训练深度学习模型。对于GAF和VGAF数据集,需联系EmotiW官方获取原始图像和视频数据,并结合本数据集提供的语言描述进行多模态分析。数据集的非商业使用限制确保了其在学术研究中的广泛应用,同时研究者需在相关工作中引用提供的参考文献,以尊重数据集的贡献者。
背景与挑战
背景概述
Additional EmotiW数据集是为群体凝聚力预测和情感理解任务而创建的补充数据集,主要包含静态和动态视觉数据的情境描述文本。该数据集由EmotiW团队在2019年和2020年分别发布,旨在通过语言上下文信息增强对群体凝聚力和情感的分析能力。数据集的核心研究问题在于如何利用语言描述来提升图像和视频中群体行为的理解能力,特别是在跨文化和多语言背景下。该数据集的研究成果已在多个国际会议和期刊上发表,对情感计算和群体行为分析领域产生了深远影响。
当前挑战
Additional EmotiW数据集面临的挑战主要集中在两个方面。首先,在领域问题方面,如何准确捕捉和量化群体凝聚力与情感状态仍然是一个复杂的问题,尤其是在多语言和跨文化背景下,语言描述的多样性和文化差异增加了分析的难度。其次,在数据构建过程中,手动标注日语描述文本并将其转换为英语的过程不仅耗时,还可能引入翻译误差。此外,BERT词嵌入特征的提取和存储也带来了技术挑战,尤其是在处理大规模数据时,如何高效存储和传输这些特征成为了一个关键问题。
常用场景
经典使用场景
在情感计算和群体行为分析领域,Additional EmotiW数据集被广泛应用于群体凝聚力和情感理解的预测任务。该数据集通过提供静态和动态视觉数据的情境描述文本,为研究者提供了丰富的语言上下文信息,从而能够更准确地分析图像或视频中群体的凝聚力和情感状态。特别是在EmotiW2019和EmotiW2020竞赛中,该数据集成为了评估模型性能的重要基准。
实际应用
在实际应用中,Additional EmotiW数据集被广泛用于智能监控、社交机器人、教育技术等领域。例如,在智能监控系统中,该数据集可以帮助识别公共场所中群体的情感状态,从而为安全管理提供支持。在教育技术中,通过分析课堂视频中的群体凝聚力,教师可以更好地调整教学策略,提升学生的学习体验。此外,该数据集还为跨文化情感分析提供了重要参考,促进了全球化背景下的情感计算研究。
衍生相关工作
Additional EmotiW数据集催生了一系列经典研究工作。例如,基于该数据集,研究者提出了LDNN(Linguistic Knowledge Injectable Deep Neural Network)模型,通过注入语言知识来增强群体凝聚力理解的深度神经网络。此外,Wang等人提出的跨注意力视听模型(Implicit Knowledge Injectable Cross Attention Audiovisual Model)也在该数据集上取得了显著成果,推动了多模态情感识别技术的发展。这些工作不仅验证了数据集的学术价值,还为情感计算领域提供了新的研究方向。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

糖尿病预测数据集

糖尿病相关的医学研究或者健康数据

AI_Studio 收录

CMAB

CMAB数据集由清华大学创建,是中国首个全国范围的多属性建筑数据集,涵盖了3667个自然城市,总面积达213亿平方米。该数据集通过集成多源数据,如高分辨率Google Earth影像和街景图像,生成了建筑的屋顶、高度、功能、年龄和质量等属性。数据集的创建过程结合了地理人工智能框架和机器学习模型,确保了数据的高准确性。CMAB数据集主要应用于城市规划和可持续发展研究,旨在提供详细的城市3D物理和社会结构信息,支持城市化进程和政府决策。

arXiv 收录

URPC系列数据集, S-URPC2019, UDD

URPC系列数据集包括URPC2017至URPC2020DL,主要用于水下目标的检测和分类。S-URPC2019专注于水下环境的特定检测任务。UDD数据集信息未在README中详细描述。

github 收录

YOLO Drone Detection Dataset

为了促进无人机检测模型的开发和评估,我们引入了一个新颖且全面的数据集,专门为训练和测试无人机检测算法而设计。该数据集来源于Kaggle上的公开数据集,包含在各种环境和摄像机视角下捕获的多样化的带注释图像。数据集包括无人机实例以及其他常见对象,以实现强大的检测和分类。

github 收录

Materials Project

材料项目是一组标有不同属性的化合物。数据集链接: MP 2018.6.1(69,239 个材料) MP 2019.4.1(133,420 个材料)

OpenDataLab 收录