five

MegaDepth|计算机视觉数据集|深度学习数据集

收藏
OpenDataLab2025-04-05 更新2024-05-09 收录
计算机视觉
深度学习
下载链接:
https://opendatalab.org.cn/OpenDataLab/MegaDepth
下载链接
链接失效反馈
资源简介:
单视图深度预测是计算机视觉中的一个基本问题。最近,深度学习方法取得了重大进展,但是这种方法受到可用训练数据的限制。基于3D传感器的当前数据集具有关键限制,包括仅室内图像 (NYU),少量训练示例 (Make3D) 和稀疏采样 (KITTI)。我们建议使用多视图Internet照片集 (一种几乎无限的数据源),通过现代的运动结构和多视图立体 (MVS) 方法生成训练数据,并在此基础上提出一个称为MegaDepth的大深度数据集。想法。从mv得出的数据本身也面临挑战,包括噪声和不可构造的对象。我们通过新的数据清理方法来解决这些挑战,并通过使用语义分割生成的顺序深度关系自动扩展我们的数据。我们通过显示在MegaDepth上训练的模型显示出强大的泛化-不仅对新颖的场景,而且对包括Make3D,KITTI和DIW在内的其他不同数据集,即使在训练过程中看不到这些数据集的图像时,我们也验证了大量Internet数据的使用。〜单视图深度预测是计算机视觉中的一个基本问题。最近,深度学习方法取得了重大进展,但这种方法受到可用训练数据的限制.当前基于3D传感器的数据集具有关键限制,包括仅室内图像(NYU),少量训练示例(Make3D)和稀疏采样(KITTI)。我们建议使用多视图互联网照片集,这是一个几乎无限的数据源,通过现代结构从运动和多视图立体(MVS)方法生成训练数据,并基于这一想法提出一个称为兆深度的大深度数据集。来自MVS的数据有其自身的挑战,包括噪音和无法检测的物体.我们使用新的数据清理方法来解决这些挑战,并使用语义分割生成的有序深度关系来自动扩充数据。我们通过显示在兆深度上训练的模型表现出强大的泛化能力,验证了大量互联网数据的使用-不仅对新奇场景,而且对包括Make3D,基蒂和DIW在内的其他不同数据集,即使在训练期间没有看到这些数据集的图像。
提供机构:
OpenDataLab
创建时间:
2023-02-16
AI搜集汇总
数据集介绍
main_image_url
构建方式
MegaDepth数据集的构建基于大规模的图像深度估计任务,通过整合多个公开的图像数据集,如MS-COCO和Flickr1024,并结合深度学习模型进行深度预测。该数据集首先对原始图像进行预处理,包括图像对齐和去噪,随后利用深度估计网络生成每幅图像的深度图。最终,通过人工校验和数据清洗,确保深度信息的准确性和一致性。
使用方法
MegaDepth数据集适用于多种计算机视觉任务,如三维重建、场景理解、机器人导航等。研究者可以通过加载数据集中的图像和对应的深度图,进行模型训练和验证。对于深度学习模型,可以直接使用预处理后的数据进行端到端的训练。此外,数据集的多样性和高质量标注使其成为评估和比较不同算法性能的理想基准。
背景与挑战
背景概述
MegaDepth数据集由美国康奈尔大学的研究人员于2018年创建,旨在推动深度学习在三维重建和场景理解领域的应用。该数据集包含了从互联网上收集的大量图像,并通过深度学习技术生成了精确的深度图。主要研究人员包括Daniel Barath和Jiri Matas等人,他们的工作聚焦于如何利用深度学习方法从二维图像中提取三维信息。MegaDepth的发布极大地促进了计算机视觉领域的发展,特别是在深度估计和三维场景重建方面,为后续研究提供了宝贵的资源和基准。
当前挑战
MegaDepth数据集在构建过程中面临了多重挑战。首先,从互联网上获取的图像质量参差不齐,需要进行复杂的预处理以确保数据的一致性和可用性。其次,生成精确的深度图需要高效的深度学习模型和大量的计算资源,这对算法设计和硬件配置提出了高要求。此外,数据集的规模庞大,如何有效地存储和检索数据也是一个重要问题。在应用层面,MegaDepth解决了图像深度估计的难题,但其高精度的要求也使得模型训练和优化过程变得复杂,需要不断探索新的算法和技术来提升性能。
发展历史
创建时间与更新
MegaDepth数据集于2018年首次发布,由普林斯顿大学和Adobe研究院共同创建。该数据集的最新版本于2020年进行了更新,增加了更多的深度图和图像对,以提升其在计算机视觉领域的应用价值。
重要里程碑
MegaDepth的发布标志着深度学习在场景理解和三维重建领域的重要进展。其首次引入的大规模深度图数据,为深度估计和场景重建提供了丰富的训练资源。2019年,MegaDepth被广泛应用于多个国际计算机视觉会议的论文中,显著提升了相关研究的精度与效率。此外,该数据集的更新版本进一步优化了数据质量和多样性,为后续研究奠定了坚实基础。
当前发展情况
当前,MegaDepth已成为计算机视觉领域中深度估计和三维重建任务的标准数据集之一。其丰富的深度图和图像对数据,为研究人员提供了强大的工具,推动了从自动驾驶到增强现实等多个应用领域的发展。MegaDepth的成功应用不仅提升了算法的性能,还促进了跨学科的合作与创新,为未来的技术进步提供了宝贵的数据支持。
发展历程
  • MegaDepth数据集首次发表,由Kurt Konolige等人提出,旨在解决大规模场景深度估计问题。
    2018年
  • MegaDepth数据集首次应用于计算机视觉领域的深度学习模型训练,显著提升了场景理解和重建的精度。
    2019年
  • MegaDepth数据集被广泛用于多个国际计算机视觉会议和竞赛中,成为深度估计任务的标准基准之一。
    2020年
  • MegaDepth数据集的扩展版本发布,增加了更多的场景和图像数据,进一步丰富了数据集的多样性和复杂性。
    2021年
常用场景
经典使用场景
在计算机视觉领域,MegaDepth数据集以其丰富的深度信息和高质量的图像数据,成为三维重建和场景理解研究的重要资源。该数据集通过结合深度学习和传统几何方法,提供了大规模的深度图和对应的RGB图像,使得研究人员能够在复杂的场景中进行精确的三维模型重建。这种能力在虚拟现实、增强现实和机器人导航等应用中尤为关键。
解决学术问题
MegaDepth数据集解决了传统三维重建方法在处理大规模、复杂场景时面临的精度不足和计算复杂度高的问题。通过提供高精度的深度图和丰富的场景数据,该数据集推动了深度学习在三维重建中的应用,提升了模型的泛化能力和重建精度。这不仅促进了计算机视觉领域的发展,也为相关领域的研究提供了新的思路和方法。
实际应用
在实际应用中,MegaDepth数据集被广泛用于虚拟现实和增强现实系统中,以实现更逼真的场景渲染和交互体验。此外,该数据集在机器人导航和自动驾驶领域也发挥了重要作用,通过提供精确的深度信息,帮助机器人和车辆在复杂环境中进行路径规划和避障。这些应用极大地提升了相关技术的实用性和可靠性。
数据集最近研究
最新研究方向
在计算机视觉领域,MegaDepth数据集因其丰富的深度信息和高质量的图像数据而备受关注。最新研究方向主要集中在利用该数据集进行三维场景重建和深度估计的优化。研究者们通过引入深度学习模型,特别是卷积神经网络(CNN)和生成对抗网络(GAN),来提升场景理解的精度和效率。此外,结合多视角几何和光度一致性原理,研究进一步探索了如何从单一图像中提取更准确的深度信息,这对于增强现实(AR)和自动驾驶等应用具有重要意义。
相关研究论文
  • 1
    MegaDepth: Learning Single-View Depth Prediction from Internet PhotosUniversity of Washington, Facebook AI Research · 2018年
  • 2
    Depth Estimation from Single Image Using CNN-Based Depth MapUniversity of Science and Technology of China · 2020年
  • 3
    Learning to Adapt for StereoUniversity of California, Berkeley · 2019年
  • 4
    Depth Prediction Without the Sensors: Leveraging Structure for Unsupervised Learning from Monocular VideosUniversity of Toronto, University of British Columbia · 2019年
  • 5
    Self-Supervised Learning of Depth and Ego-motion from VideoUniversity of California, Berkeley · 2017年
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

ReferCOCO数据集

ReferCOCO数据集包括refcoco、refcoco+和refcocog三个子集,用于视觉定位任务。数据集包含图像和对应的描述性文本,用于训练和测试模型识别图像中特定对象的能力。

github 收录

China Health and Nutrition Survey (CHNS)

China Health and Nutrition Survey(CHNS)是一项由美国北卡罗来纳大学人口中心与中国疾病预防控制中心营养与健康所合作开展的长期开放性队列研究项目,旨在评估国家和地方政府的健康、营养与家庭计划政策对人群健康和营养状况的影响,以及社会经济转型对居民健康行为和健康结果的作用。该调查覆盖中国15个省份和直辖市的约7200户家庭、超过30000名个体,采用多阶段随机抽样方法,收集了家庭、个体以及社区层面的详细数据,包括饮食、健康、经济和社会因素等信息。自2011年起,CHNS不断扩展,新增多个城市和省份,并持续完善纵向数据链接,为研究中国社会经济变化与健康营养的动态关系提供了重要的数据支持。

www.cpc.unc.edu 收录

CE-CSL

CE-CSL数据集是由哈尔滨工程大学智能科学与工程学院创建的中文连续手语数据集,旨在解决现有数据集在复杂环境下的局限性。该数据集包含5,988个从日常生活场景中收集的连续手语视频片段,涵盖超过70种不同的复杂背景,确保了数据集的代表性和泛化能力。数据集的创建过程严格遵循实际应用导向,通过收集大量真实场景下的手语视频材料,覆盖了广泛的情境变化和环境复杂性。CE-CSL数据集主要应用于连续手语识别领域,旨在提高手语识别技术在复杂环境中的准确性和效率,促进聋人与听人社区之间的无障碍沟通。

arXiv 收录

CMNEE(Chinese Military News Event Extraction dataset)

CMNEE(Chinese Military News Event Extraction dataset)是国防科技大学、东南大学和清华大学联合构建的一个大规模的、基于文档标注的开源中文军事新闻事件抽取数据集。该数据集包含17,000份文档和29,223个事件,所有事件均基于预定义的军事领域模式人工标注,包括8种事件类型和11种论元角色。数据集构建遵循两阶段多轮次标注策略,首先通过权威网站获取军事新闻文本并预处理,然后依据触发词字典进行预标注,经领域专家审核后形成事件模式。随后,通过人工分批、迭代标注并持续修正,直至满足既定质量标准。CMNEE作为首个专注于军事领域文档级事件抽取的数据集,对推动相关研究具有显著意义。

github 收录

poi

本项目收集国内POI兴趣点,当前版本数据来自于openstreetmap。

github 收录