five

Vaihingen dataset|语义分割数据集|计算机视觉数据集

收藏
github2024-05-02 更新2024-05-31 收录
语义分割
计算机视觉
下载链接:
https://github.com/ai4os-hub/semseg-vaihingen
下载链接
链接失效反馈
资源简介:
2D语义分割数据集,用于为多个对象类别分配标签。

A 2D semantic segmentation dataset designed for assigning labels to multiple object categories.
创建时间:
2024-05-02
原始信息汇总

数据集概述

名称: 2D semantic segmentation (Vaihingen dataset)

作者: G.Cavallaro (FZJ), M.Goetz (KIT), V.Kozlov (KIT), A.Grupp (KIT), S.Donayer Holz (KIT)

项目背景: 本项目是DEEP Hybrid-DataCloud项目的一部分,该项目获得欧盟Horizon 2020研究与创新计划的资助,资助协议号为777435。

应用场景: 该数据集用于ISPRS 2D Semantic Labeling Contest,主要用于2D语义分割,即对多个对象类别进行标签分配。

数据集获取: 获取Vaihingen数据集的详细信息可参考此处

数据集使用

安装指南:

  1. 本地安装: 需要Ubuntu 18.04和Python 3.6环境,具体依赖见requirements.txt。通过Git克隆仓库并使用pip安装。
  2. Docker安装: 提供预配置的Docker容器,可通过Docker命令快速部署。

训练流程:

  1. 数据预处理: 将训练文件vaihingen_train.hdf5和验证文件vaihingen_val.hdf5放置于./semseg-vaihingen/data目录下。
  2. 训练分类器: 通过Web界面选择TRAIN POST方法进行训练,可实时监控训练状态。

预测流程:

  • 使用预训练的分类器进行预测。通过Web界面的PREDICT POST方法,上传数据文件(支持.hdf5, .tiff, .png, .jpg格式),并选择结果输出格式(json.pdf)。

致谢

若认为本项目有用,请考虑引用DEEP Hybrid DataCloud项目相关文献。

AI搜集汇总
数据集介绍
main_image_url
构建方式
Vaihingen数据集的构建基于ISPRS 2D语义标注竞赛,旨在为多类别对象分配标签。该数据集通过高分辨率遥感图像和相应的语义标注,为城市环境中的建筑物、道路、植被等提供了详细的分割信息。数据集的构建过程包括图像采集、标注、预处理和格式转换,最终以HDF5格式存储,便于后续的深度学习模型训练和评估。
特点
Vaihingen数据集以其高分辨率和多类别标注为特点,适用于2D语义分割任务。数据集包含了丰富的城市环境信息,涵盖了建筑物、道路、植被等多种对象类别,为模型训练提供了多样化的场景。此外,数据集的标注质量高,确保了训练模型的准确性和可靠性。
使用方法
使用Vaihingen数据集进行模型训练时,首先需将训练和验证数据文件放置在指定目录下,并进行必要的预处理。用户可通过本地或Docker安装方式启动模块,利用提供的API接口进行模型训练和预测。训练过程中,用户可通过Tensorboard实时监控训练状态,并在训练完成后查看训练统计信息和日志。预测阶段,用户可上传测试数据,选择输出格式,获取模型的预测结果。
背景与挑战
背景概述
Vaihingen数据集,由G.Cavallaro、M.Goetz、V.Kozlov、A.Grupp和S.Donayer Holz等研究人员在德国卡尔斯鲁厄理工学院(KIT)和于利希研究中心(FZJ)合作开发,是2D语义分割领域的关键资源。该数据集作为ISPRS 2D语义标注竞赛的一部分,旨在解决多类别对象的标签分配问题。其创建得到了欧洲联盟Horizon 2020研究与创新计划的支持,通过DEEP Hybrid-DataCloud项目(资助协议号777435)实现。Vaihingen数据集不仅为语义分割算法提供了标准化的测试平台,还显著推动了遥感图像处理技术的发展。
当前挑战
Vaihingen数据集在构建过程中面临多项挑战。首先,数据预处理阶段需要将原始数据转换为适合训练的HDF5格式,这一过程涉及复杂的数据转换和格式标准化问题。其次,训练分类器时,如何有效利用数据集中的多类别信息,确保模型在不同类别间的高效区分,是一个技术难点。此外,数据集的多样性和复杂性要求算法具备高度的鲁棒性和泛化能力。最后,如何在实际应用中确保预测结果的准确性和实时性,也是该数据集面临的重要挑战。
常用场景
经典使用场景
Vaihingen数据集在2D语义分割领域中占据着举足轻重的地位。其经典使用场景主要集中在城市遥感图像的自动标注与分类任务上。通过该数据集,研究者能够训练深度学习模型,以高精度地识别和分割遥感图像中的不同地物类别,如建筑物、道路、植被等。这种应用不仅提升了遥感图像分析的自动化水平,还为城市规划、环境监测等领域提供了强有力的技术支持。
解决学术问题
Vaihingen数据集在解决遥感图像语义分割的学术研究问题上具有重要意义。它为研究者提供了一个标准化的数据平台,使得不同算法和模型可以在同一基准上进行比较和评估。通过该数据集,研究者能够深入探讨如何提高语义分割的准确性和鲁棒性,尤其是在复杂城市环境中的多类别分割问题。此外,该数据集还促进了跨学科研究,如结合计算机视觉与地理信息系统,推动了遥感技术的创新与发展。
衍生相关工作
Vaihingen数据集的发布催生了大量相关研究工作,特别是在深度学习与遥感图像分析的交叉领域。许多研究者基于该数据集开发了新的语义分割算法,如卷积神经网络(CNN)和全卷积网络(FCN)的改进版本,显著提升了分割精度。此外,该数据集还促进了多模态数据融合的研究,如结合光学图像与激光雷达数据,以提高地物分类的准确性。这些衍生工作不仅丰富了遥感图像处理的技术手段,也为实际应用提供了更多可能性。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

MedDialog

MedDialog数据集(中文)包含了医生和患者之间的对话(中文)。它有110万个对话和400万个话语。数据还在不断增长,会有更多的对话加入。原始对话来自好大夫网。

github 收录

ReferCOCO数据集

ReferCOCO数据集包括refcoco、refcoco+和refcocog三个子集,用于视觉定位任务。数据集包含图像和对应的描述性文本,用于训练和测试模型识别图像中特定对象的能力。

github 收录

MultiTalk

MultiTalk数据集是由韩国科学技术院创建,包含超过420小时的2D视频,涵盖20种不同语言,旨在解决多语言环境下3D说话头生成的问题。该数据集通过自动化管道从YouTube收集,每段视频都配有语言标签和伪转录,部分视频还包含伪3D网格顶点。数据集的创建过程包括视频收集、主动说话者验证和正面人脸验证,确保数据质量。MultiTalk数据集的应用领域主要集中在提升多语言3D说话头生成的准确性和表现力,通过引入语言特定风格嵌入,使模型能够捕捉每种语言独特的嘴部运动。

arXiv 收录

中国近海台风路径集合数据集(1945-2024)

1945-2024年度,中国近海台风路径数据集,包含每个台风的真实路径信息、台风强度、气压、中心风速、移动速度、移动方向。 数据源为获取温州台风网(http://www.wztf121.com/)的真实观测路径数据,经过处理整合后形成文件,如使用csv文件需使用文本编辑器打开浏览,否则会出现乱码,如要使用excel查看数据,请使用xlsx的格式。

国家海洋科学数据中心 收录

LUNA16

LUNA16(肺结节分析)数据集是用于肺分割的数据集。它由 1,186 个肺结节组成,在 888 次 CT 扫描中进行了注释。

OpenDataLab 收录