five

VGGSound|音频生成数据集|视频处理数据集

收藏
arXiv2024-12-12 更新2024-12-25 收录
音频生成
视频处理
下载链接:
https://giantailab.github.io/yingsound/
下载链接
链接失效反馈
资源简介:
VGGSound数据集是一个用于视频引导音频生成的工业级标准数据集,涵盖了电影、游戏和商业广告等多种真实场景。该数据集包含约173,000个视频片段及其对应的音频,旨在为视频到音频生成任务提供高质量的训练数据。数据集的创建过程包括视频分类、内容下载或录制、音频重采样和单声道转换、自动化标注和复杂视频理解等步骤,确保了数据的高质量和多样性。该数据集主要应用于音频生成领域,特别是在少样本设置下生成高质量同步音频,解决视频背景音缺失的问题。
提供机构:
巨人网络AI实验室, 西北工业大学ASLP实验室, 浙江大学, 华东理工大学
创建时间:
2024-12-12
AI搜集汇总
数据集介绍
main_image_url
构建方式
VGGSound数据集的构建过程采用了多阶段的数据收集与处理流程。首先,通过互联网下载或录制各类视频,确保数据多样性。每个视频均附带相应的音频,并通过重采样和单声道转换来保证音频质量。随后,利用自动化标注网络集群,结合细粒度时间戳检测器和多模态大语言模型(MLLMs)进行时间戳提取和文本标注。复杂视频理解则通过先进的视频大语言模型(Video-LLMs)完成,确保多声音事件的准确标注。最后,通过多轮过滤和切割,剔除低质量数据,生成高质量的音频-视频-文本数据集。
特点
VGGSound数据集涵盖了广泛的真实场景,包括电影、游戏和广告等多种类型,具有高度的多样性和实用性。其独特之处在于通过多模态对齐技术,实现了音频与视频在语义和时间上的精确同步。此外,数据集经过严格的过滤和标注,确保了音频与视频的高质量对齐,适用于工业级应用场景。数据集还支持少样本学习,能够在有限的标注数据下生成高质量的音频。
使用方法
VGGSound数据集主要用于视频引导的音频生成任务,特别是在少样本学习场景下。通过结合条件流匹配变换器和多模态视觉-音频链式思维(CoT)模块,模型能够从视频输入中生成高质量的音频。具体而言,模型首先通过流匹配变换器实现音频与视频的语义对齐,随后利用CoT模块在少样本设置下生成更精细的音频效果。该数据集还可用于评估音频生成模型的语义对齐、时间对齐和音频质量,支持多种应用场景,如游戏角色动作的同步音效生成、动画视频的音效增强以及短视频的背景音效生成。
背景与挑战
背景概述
VGGSound数据集由香港中文大学的研究团队于2020年提出,旨在为音频-视觉多模态学习提供大规模的数据支持。该数据集包含了超过30万条视频片段,涵盖了广泛的日常场景和声音类别,如动物叫声、乐器演奏、自然声音等。VGGSound的创建是为了解决音频-视觉对齐、声音定位以及多模态表示学习中的关键问题。通过提供高质量的音频-视觉对,VGGSound推动了音频生成、声音事件检测以及多模态理解等领域的研究进展,成为该领域的基准数据集之一。
当前挑战
VGGSound数据集在构建和应用过程中面临多重挑战。首先,音频-视觉对齐的精确性是一个核心难题,尤其是在复杂场景中,声音与视觉内容的同步性难以保证。其次,数据集的多样性要求涵盖广泛的场景和声音类别,这增加了数据采集和标注的复杂性。此外,音频生成任务中,如何在少样本设置下生成高质量的声音效果也是一个重要挑战,尤其是在工业级应用中,要求生成的音频不仅语义上与视频对齐,还需具备高保真度和时间同步性。这些挑战推动了多模态生成模型和少样本学习技术的发展。
常用场景
经典使用场景
VGGSound数据集在视频到音频生成(V2A)领域具有广泛的应用,尤其是在多模态学习任务中。该数据集通过提供丰富的视频和音频对,支持研究者探索视觉与听觉之间的语义对齐和时序同步问题。其经典使用场景包括视频配音、Foley音效生成以及虚拟现实中的沉浸式音频体验。通过结合视觉和音频信息,VGGSound为生成与视频内容高度匹配的音频提供了坚实的基础。
实际应用
VGGSound数据集在实际应用中展现了广泛的潜力,尤其是在影视制作、游戏开发和虚拟现实领域。在影视制作中,该数据集可用于自动生成与视频内容同步的音效,减少后期制作中的人工成本。在游戏开发中,VGGSound支持生成与角色动作高度匹配的音频,提升玩家的沉浸感。此外,虚拟现实中的沉浸式音频体验也受益于该数据集,能够生成与虚拟环境动态匹配的音频,增强用户的感官体验。
衍生相关工作
VGGSound数据集衍生了许多经典的多模态生成模型和研究工作。例如,基于该数据集的YingSound模型通过引入可学习的音频-视觉聚合器(AVA)和多模态思维链(CoT)模块,显著提升了少样本场景下的音频生成质量。此外,FoleyCrafter和Frieren等模型也利用VGGSound数据集,分别在音效生成和时序对齐方面取得了重要进展。这些工作不仅推动了视频到音频生成技术的发展,还为多模态生成模型的优化提供了新的思路。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4099个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

中国区域地面气象要素驱动数据集 v2.0(1951-2024)

中国区域地面气象要素驱动数据集(China Meteorological Forcing Data,以下简称 CMFD)是为支撑中国区域陆面、水文、生态等领域研究而研发的一套高精度、高分辨率、长时间序列数据产品。本页面发布的 CMFD 2.0 包含了近地面气温、气压、比湿、全风速、向下短波辐射通量、向下长波辐射通量、降水率等气象要素,时间分辨率为 3 小时,水平空间分辨率为 0.1°,时间长度为 74 年(1951~2024 年),覆盖了 70°E~140°E,15°N~55°N 空间范围内的陆地区域。CMFD 2.0 融合了欧洲中期天气预报中心 ERA5 再分析数据与气象台站观测数据,并在辐射、降水数据产品中集成了采用人工智能技术制作的 ISCCP-ITP-CNN 和 TPHiPr 数据产品,其数据精度较 CMFD 的上一代产品有显著提升。 CMFD 历经十余年的发展,其间发布了多个重要版本。2019 年发布的 CMFD 1.6 是完全采用传统数据融合技术制作的最后一个 CMFD 版本,而本次发布的 CMFD 2.0 则是 CMFD 转向人工智能技术制作的首个版本。此版本与 1.6 版具有相同的时空分辨率和基础变量集,但在其它诸多方面存在大幅改进。除集成了采用人工智能技术制作的辐射和降水数据外,在制作 CMFD 2.0 的过程中,研发团队尽可能采用单一来源的再分析数据作为输入并引入气象台站迁址信息,显著缓解了 CMFD 1.6 中因多源数据拼接和气象台站迁址而产生的虚假气候突变。同时,CMFD 2.0 数据的时间长度从 CMFD 1.6 的 40 年大幅扩展到了 74 年,并将继续向后延伸。CMFD 2.0 的网格空间范围虽然与 CMFD 1.6 相同,但其有效数据扩展到了中国之外,能够更好地支持跨境区域研究。为方便用户使用,CMFD 2.0 还在基础变量集之外提供了若干衍生变量,包括近地面相对湿度、雨雪分离降水产品等。此外,CMFD 2.0 摒弃了 CMFD 1.6 中通过 scale_factor 和 add_offset 参数将实型数据化为整型数据的压缩技术,转而直接将实型数据压缩存储于 NetCDF4 格式文件中,从而消除了用户使用数据时进行解压换算的困扰。 本数据集原定版本号为 1.7,但鉴于本数据集从输入数据到研制技术都较上一代数据产品有了大幅的改变,故将其版本号重新定义为 2.0。

国家青藏高原科学数据中心 收录

EdNet

displayName: EdNet license: - CC BY-NC 4.0 paperUrl: https://arxiv.org/pdf/1912.03072v3.pdf publishDate: "2019" publishUrl: https://github.com/riiid/ednet publisher: - University of Michigan - Yale University - University of California, Berkeley - Riiid AI Research tags: - Student Activities taskTypes: - Knowledge Tracing --- # 数据集介绍 ## 简介 圣诞老人收集的各种学生活动的大规模分层数据集,一个配备人工智能辅导系统的多平台自学解决方案。 EdNet 包含 2 年多来收集的 784,309 名学生的 131,441,538 次互动,这是迄今为止向公众发布的 ITS 数据集中最大的。资料来源:EdNet:教育中的大规模分层数据集 ## 引文 ``` @inproceedings{choi2020ednet, title={Ednet: A large-scale hierarchical dataset in education}, author={Choi, Youngduck and Lee, Youngnam and Shin, Dongmin and Cho, Junghyun and Park, Seoyon and Lee, Seewoo and Baek, Jineon and Bae, Chan and Kim, Byungsoo and Heo, Jaewe}, booktitle={International Conference on Artificial Intelligence in Education}, pages={69--73}, year={2020}, organization={Springer} } ``` ## Download dataset :modelscope-code[]{type="git"}

魔搭社区 收录

AIS数据集

该研究使用了多个公开的AIS数据集,这些数据集经过过滤、清理和统计分析。数据集涵盖了多种类型的船舶,并提供了关于船舶位置、速度和航向的关键信息。数据集包括来自19,185艘船舶的AIS消息,总计约6.4亿条记录。

github 收录

MHEALTH Dataset

该数据集名为MHEALTH,包含了12种人类活动,这些活动是由10位不同的受试者进行的,每位受试者在左脚踝和右手腕上佩戴了运动传感器。数据由128个时间步长的序列组成;正常活动被标记为正常,而其他活动被视为异常。该数据集具有18个维度,来自10位受试者,其任务是进行异常检测。

arXiv 收录

SWaT Dataset

SWaT Dataset是一个用于工业控制系统(ICS)安全研究的数据集,包含了模拟的网络攻击和正常操作的数据。该数据集由新加坡科技设计大学(Singapore University of Technology and Design)发布,旨在帮助研究人员开发和测试用于检测工业控制系统中网络攻击的算法和模型。

itrust.sutd.edu.sg 收录