five

SUIM|水下图像语义分割数据集|机器人视觉数据集

收藏
arXiv2020-09-14 更新2024-06-21 收录
水下图像语义分割
机器人视觉
下载链接:
https://irvlab.cs.umn.edu/resources/suim-dataset
下载链接
链接失效反馈
资源简介:
SUIM数据集是专为水下图像语义分割设计的大型数据集,由明尼苏达大学交互式机器人与视觉实验室创建。该数据集包含1525张水下图像,涵盖八种对象类别,如鱼类、珊瑚礁、水生植物等,这些图像通过海洋探索和人类-机器人协作实验精心收集。数据集的创建旨在为水下机器人视觉提供一个标准平台,以促进水下场景的详细理解和自主导航。
提供机构:
交互式机器人与视觉实验室
创建时间:
2020-04-03
AI搜集汇总
数据集介绍
main_image_url
构建方式
SUIM数据集的构建基于对水下图像进行语义分割的需求,旨在为水下机器人视觉感知提供高质量的数据支持。数据集包含了1525张水下自然图像及其像素级标注,涵盖了八种对象类别:鱼类、珊瑚礁、水生植物、残骸/遗迹、潜水员、机器人、海底和背景。这些图像是在海洋探险和人类-机器人协作实验中精心收集的,并由七位人类参与者进行像素级标注。数据集还提供了110张测试图像,用于对语义分割模型进行基准评估。
使用方法
SUIM数据集可用于训练和评估语义分割模型,帮助水下机器人更好地理解水下场景,进行目标识别、路径规划等任务。数据集的标注信息可以帮助模型学习到更精细的对象边界和空间关系,从而提高分割的准确性。同时,数据集还包含了测试集,可以用于评估模型的泛化能力。此外,SUIM-Net模型的设计和实现细节也在论文中进行了详细介绍,为水下机器人视觉感知的研究提供了有价值的参考。
背景与挑战
背景概述
在机器人视觉和深度学习领域中,语义分割是一个广受关注的问题,因为它在估计场景几何形状、推断物体之间的相互作用和空间关系、显著物体识别等方面具有重要作用。近年来,得益于深度卷积神经网络(CNN)模型和大规模标注数据集的发展,语义分割技术在陆上机器人视觉感知系统中取得了显著进展。然而,针对水下机器人视觉感知的水下图像语义分割研究相对较少。由于水下图像具有特定的对象类别、背景模式和光学畸变伪影,现有的基于陆地数据的SOTA模型并不直接适用。为了解决这一挑战,研究人员提出了SUIM数据集,这是一个包含1525张自然水下图像及其像素级语义标签的大型标注数据集。该数据集涵盖了鱼类、珊瑚礁、水生植物、沉船残骸、人类潜水员、机器人、海底岩石等八个对象类别,为水下机器人视觉感知的研究提供了宝贵的资源。
当前挑战
SUIM数据集和相关模型的研究面临的主要挑战包括:1) 水下图像的语义分割,由于水下图像的光学畸变和特定对象类别,现有的基于陆地数据的SOTA模型并不直接适用;2) 构建过程中所遇到的挑战,如数据收集、标注和模型训练等。为了解决这些挑战,研究人员提出了SUIM-Net模型,这是一个全卷积编码器-解码器模型,能够在保证性能的同时,实现快速端到端推理,适用于水下机器人的自主性流程。此外,SUIM数据集和相关模型的研究为水下机器人视觉感知领域开辟了新的研究方向,如视觉注意力建模、视觉伺服、显著性预测和详细场景理解等。
常用场景
经典使用场景
SUIM数据集在语义分割领域具有重要意义,特别是在水下图像的语义分割方面。该数据集提供了超过1500张像素级标注的图像,涵盖了鱼类、珊瑚礁、水生植物、沉船、潜水员、机器人、海底等八个对象类别。这些图像是在海洋探险和人类-机器人协作实验中精心收集的,并由人工参与者进行标注。SUIM数据集为水下图像的语义分割提供了标准平台,并推动了相关文献的快速发展。
解决学术问题
SUIM数据集解决了水下图像语义分割的难题。由于水下环境的特殊性,现有的基于陆地数据的语义分割模型无法直接应用于水下图像。此外,缺乏大规模标注数据集也限制了水下图像语义分割的研究。SUIM数据集提供了大规模的标注数据,为水下图像语义分割研究提供了基础。
实际应用
SUIM数据集在实际应用中具有广泛的应用前景。例如,在水下机器人视觉感知系统中,SUIM数据集可用于训练语义分割模型,帮助机器人更好地理解水下环境。此外,在水下勘探和调查应用中,SUIM数据集可用于识别和分割重要的对象类别,如鱼类、珊瑚礁、沉船等。
数据集最近研究
最新研究方向
在海洋探索和机器人协作实验的背景下,SUIM数据集为水下图像的语义分割提供了第一个大规模的数据集。该数据集包含超过1500张图像,这些图像具有像素级的注释,涵盖了鱼类、珊瑚礁、水生植物、沉船/废墟、潜水员、机器人、海底等八个物体类别。该数据集的提出旨在解决现有语义分割模型在水下场景中的应用不足的问题,并促进水下机器人视觉感知领域的研究。
相关研究论文
  • 1
    Semantic Segmentation of Underwater Imagery: Dataset and Benchmark交互式机器人与视觉实验室 · 2020年
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

Google Scholar

Google Scholar是一个学术搜索引擎,旨在检索学术文献、论文、书籍、摘要和文章等。它涵盖了广泛的学科领域,包括自然科学、社会科学、艺术和人文学科。用户可以通过关键词搜索、作者姓名、出版物名称等方式查找相关学术资源。

scholar.google.com 收录

ChemBL

ChemBL是一个化学信息学数据库,包含大量生物活性数据,涵盖了药物发现和开发过程中的各种化学实体。数据集包括化合物的结构信息、生物活性数据、靶点信息等。

www.ebi.ac.uk 收录

AgiBot World

为了进一步推动通用具身智能领域研究进展,让高质量机器人数据触手可及,作为上海模塑申城语料普惠计划中的一份子,智元机器人携手上海人工智能实验室、国家地方共建人形机器人创新中心以及上海库帕思,重磅发布全球首个基于全域真实场景、全能硬件平台、全程质量把控的百万真机数据集开源项目 AgiBot World。这一里程碑式的开源项目,旨在构建国际领先的开源技术底座,标志着具身智能领域 「ImageNet 时刻」已到来。AgiBot World 是全球首个基于全域真实场景、全能硬件平台、全程质量把控的大规模机器人数据集。相比于 Google 开源的 Open X-Embodiment 数据集,AgiBot World 的长程数据规模高出 10 倍,场景范围覆盖面扩大 100 倍,数据质量从实验室级上升到工业级标准。AgiBot World 数据集收录了八十余种日常生活中的多样化技能,从抓取、放置、推、拉等基础操作,到搅拌、折叠、熨烫等精细长程、双臂协同复杂交互,几乎涵盖了日常生活所需的绝大多数动作需求。

github 收录

China Health and Nutrition Survey (CHNS)

China Health and Nutrition Survey(CHNS)是一项由美国北卡罗来纳大学人口中心与中国疾病预防控制中心营养与健康所合作开展的长期开放性队列研究项目,旨在评估国家和地方政府的健康、营养与家庭计划政策对人群健康和营养状况的影响,以及社会经济转型对居民健康行为和健康结果的作用。该调查覆盖中国15个省份和直辖市的约7200户家庭、超过30000名个体,采用多阶段随机抽样方法,收集了家庭、个体以及社区层面的详细数据,包括饮食、健康、经济和社会因素等信息。自2011年起,CHNS不断扩展,新增多个城市和省份,并持续完善纵向数据链接,为研究中国社会经济变化与健康营养的动态关系提供了重要的数据支持。

www.cpc.unc.edu 收录

insurance.csv

该数据集包含医疗保险费用的相关信息,用于分析患者的各种属性及其对保险费用的影响。

github 收录