five

YCB-Slide|触觉感知数据集|机器人技术数据集

收藏
github2022-10-25 更新2025-02-19 收录
触觉感知
机器人技术
下载链接:
https://github.com/rpl-cmu/YCB-Slide
下载链接
链接失效反馈
资源简介:
YCB-Slide 数据集由 Carnegie Mellon University 和 Meta AI 联合创建,旨在为触觉感知研究提供滑动交互的基准数据。该数据集包含 DIGIT 触觉传感器与 10 种标准 YCB 物体之间的滑动交互数据,涵盖真实世界和模拟环境下的力交互序列。数据集包含 50 条轨迹,每条轨迹时长 60 秒,采样频率为 30Hz,提供触觉图像、传感器姿态、物体网格模型以及真实高度图和接触掩码(仅限模拟)。数据集通过 TACTO 模拟器生成模拟交互,并利用 OptiTrack 系统记录真实世界中的传感器姿态。数据集的创建过程结合了模拟和真实世界的实验,旨在解决机器人触觉定位、物体理解以及动态模型学习等问题。通过滑动交互,该数据集能够为触觉感知系统提供丰富的局部几何信息,助力机器人在复杂环境中实现精准的触觉定位和物体操作。
提供机构:
Carnegie Mellon University 和 Meta AI
创建时间:
2022-10-25
原始信息汇总

YCB-Slide 数据集概述

数据集简介

  • 名称:YCB-Slide
  • 简介:YCB-Slide 是一个关于触觉交互的数据集,包含 DIGIT 滑动交互在 YCB 对象上的数据。数据集提供了 DIGIT 图像、传感器姿态、RGB 视频馈送、地面真实网格模型以及地面真实高度图和接触掩码(仅限模拟)。

数据集构成

  • YCB 对象:选择了 10 种具有不同几何形状的 YCB 对象进行测试。
  • 模拟数据:使用 TACTO 模拟滑动物理交互,生成固定长度的路径,并添加高斯噪声。
  • 真实世界数据:通过手持 DIGIT 进行滑动实验,使用 OptiTrack 系统进行时间同步的传感器姿态记录。

数据目录格式

  • 模拟:包含接触掩码、深度图、RGB DIGIT 图像等文件夹。
  • 真实世界:包含 DIGIT 图像、Webcam 图像、姿态信息、视频文件等文件夹。

数据获取

  • 下载脚本:通过 download_dataset.sh 脚本下载,需要先运行 pip install gdown
  • 单独对象数据:可以直接下载特定对象的数据。

许可

  • 许可证:MIT License

引用

  • 论文引用:在使用 YCB-Slide 数据集的研究中,请引用相关论文。

YCB-Slide 数据集概述

数据集简介

  • 名称:YCB-Slide
  • 简介:YCB-Slide 是一个关于触觉交互的数据集,包含 DIGIT 滑动交互在 YCB 对象上的数据。数据集提供了 DIGIT 图像、传感器姿态、RGB 视频馈送、地面真实网格模型以及地面真实高度图和接触掩码(仅限模拟)。

数据集构成

  • YCB 对象:选择了 10 种具有不同几何形状的 YCB 对象进行测试。
  • 模拟数据:使用 TACTO 模拟滑动物理交互,生成固定长度的路径,并添加高斯噪声。
  • 真实世界数据:通过手持 DIGIT 进行滑动实验,使用 OptiTrack 系统进行时间同步的传感器姿态记录。

数据目录格式

  • 模拟:包含接触掩码、深度图、RGB DIGIT 图像等文件夹。
  • 真实世界:包含 DIGIT 图像、Webcam 图像、姿态信息、视频文件等文件夹。

数据获取

  • 下载脚本:通过 download_dataset.sh 脚本下载,需要先运行 pip install gdown
  • 单独对象数据:可以直接下载特定对象的数据。

许可

  • 许可证:MIT License

引用

  • 论文引用:在使用 YCB-Slide 数据集的研究中,请引用相关论文。
AI搜集汇总
数据集介绍
main_image_url
构建方式
YCB-Slide数据集的构建主要涉及两部分:真实世界交互与模拟交互。真实世界交互通过手持操作DIGIT对YCB对象进行滑动实验,并使用OptiTrack系统同步记录传感器姿态;模拟交互则使用TACTO模拟器,在对象表面生成滑动轨迹,并引入噪声以模拟真实环境中的不确定性。
特点
该数据集的特点在于其综合了真实世界与模拟的滑动交互数据,提供了包括DIGIT图像、传感器姿态、RGB视频、地面真实网格模型以及地面真实高度图和接触掩码等丰富的信息。这些数据不仅有助于触觉定位、映射、对象理解,还能用于学习动态模型。
使用方法
使用YCB-Slide数据集前,需通过提供的脚本下载并解压数据。可通过可视化脚本查看轨迹和触觉数据。用户还可以利用提供的脚本记录自己的数据,并通过timesync和align脚本对数据进行同步和校准。数据集的目录格式清晰,便于访问不同的数据类型。
背景与挑战
背景概述
YCB-Slide数据集,创建于近期,由Suresh等人发起,旨在推动触觉定位、映射、物体理解和学习动力学模型等领域的研究。该数据集基于DIGIT滑移交互,涉及YCB对象,是MidasTouch论文的补充材料,后者是2022年机器人学习会议(CoRL)的提交论文。YCB-Slide数据集提供了丰富的数据,包括DIGIT图像、传感器姿态、RGB视频流、地面真实网格模型以及地面真实高度图和接触掩码(仅限模拟)。
当前挑战
YCB-Slide数据集在构建过程中面临的挑战包括:1) 如何精确地模拟和记录真实世界的滑移交互;2) 在保证数据质量的同时,处理和同步来自不同传感器的数据;3) 数据集的多样性和广泛性,以确保能够涵盖不同几何形状的物体。在所解决的领域问题方面,该数据集面临的挑战包括:如何利用触觉信息进行有效的物体识别和动态建模,以及在存在噪声和不完美同步的情况下,如何提高算法的鲁棒性和准确性。
常用场景
经典使用场景
YCB-Slide数据集广泛用于触觉定位、映射、物体理解以及学习动态模型等研究领域。其经典使用场景在于,研究人员可以通过分析 DIGIT 传感器在 YCB 物体上的滑动交互数据,进而优化触觉传感器的定位算法和物体表面建模技术。
解决学术问题
该数据集解决了触觉交互中的关键学术问题,如如何精确地定位触觉传感器与物体表面的接触位置,以及如何从滑动交互中学习物体的动态特性。其提供的真实和模拟数据帮助研究者验证和改进他们的算法,对机器人学习和人机交互领域具有重要的意义和影响。
衍生相关工作
基于YCB-Slide数据集,衍生出了一系列相关工作,如'MidasTouch: Monte-Carlo inference over distributions across sliding touch',这些工作进一步拓展了触觉交互的研究边界,推动了触觉感知技术的进步。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

FER2013

FER2013数据集是一个广泛用于面部表情识别领域的数据集,包含28,709个训练样本和7,178个测试样本。图像属性为48x48像素,标签包括愤怒、厌恶、恐惧、快乐、悲伤、惊讶和中性。

github 收录

1963-2015年中国主要木本植物春季物候(展叶和开花始期)格网数据产品(V1)

中国物候观测网1963–2015年白蜡、垂柳、刺槐、合欢、桑树、榆树、杏树、紫荆、紫丁香和加拿大杨10种木本植物的展叶始期和开花始期格网数据,时间分辨率为逐年,空间分辨率为0.5°×0.5°。数据集组成包括:(1)数据头文件,内含物种物候期和分布范围格网的头文件信息;(2)物种物候期,内含每个物种展叶始期和开花始期1963–2015年的逐年文件;(3)物种分布范围,内含每个物种的实际分布范围格网。

地球大数据科学工程 收录

中国食物成分数据库

食物成分数据比较准确而详细地描述农作物、水产类、畜禽肉类等人类赖以生存的基本食物的品质和营养成分含量。它是一个重要的我国公共卫生数据和营养信息资源,是提供人类基本需求和基本社会保障的先决条件;也是一个国家制定相关法规标准、实施有关营养政策、开展食品贸易和进行营养健康教育的基础,兼具学术、经济、社会等多种价值。 本数据集收录了基于2002年食物成分表的1506条食物的31项营养成分(含胆固醇)数据,657条食物的18种氨基酸数据、441条食物的32种脂肪酸数据、130条食物的碘数据、114条食物的大豆异黄酮数据。

国家人口健康科学数据中心 收录

LEVIR-CD

LEVIR-CD 是一个新的大规模遥感建筑变化检测数据集。引入的数据集将成为评估变化检测 (CD) 算法的新基准,尤其是基于深度学习的算法。 LEVIR-CD 由 637 个非常高分辨率(VHR,0.5m/像素)Google Earth (GE) 图像块对组成,大小为 1024 × 1024 像素。这些时间跨度为 5 到 14 年的双时相图像具有显着的土地利用变化,尤其是建筑增长。 LEVIR-CD涵盖别墅住宅、高层公寓、小型车库和大型仓库等各类建筑。在这里,我们关注与建筑相关的变化,包括建筑增长(从土壤/草地/硬化地面或在建建筑到新建筑区域的变化)和建筑衰退。这些双时相图像由遥感图像解释专家使用二进制标签(1 表示变化,0 表示不变)进行注释。我们数据集中的每个样本都由一个注释器进行注释,然后由另一个注释器进行双重检查以产生高质量的注释。完整注释的 LEVIR-CD 总共包含 31,333 个单独的变更构建实例。

OpenDataLab 收录

HazyDet

HazyDet是由解放军工程大学等机构创建的一个大规模数据集,专门用于雾霾场景下的无人机视角物体检测。该数据集包含383,000个真实世界实例,收集自自然雾霾环境和正常场景中人工添加的雾霾效果,以模拟恶劣天气条件。数据集的创建过程结合了深度估计和大气散射模型,确保了数据的真实性和多样性。HazyDet主要应用于无人机在恶劣天气条件下的物体检测,旨在提高无人机在复杂环境中的感知能力。

arXiv 收录