five

V-HOP|机器人视觉数据集|物体姿态跟踪数据集

收藏
arXiv2025-02-25 更新2025-02-26 收录
机器人视觉
物体姿态跟踪
下载链接:
https://lhy.xyz/projects/v-hop/
下载链接
链接失效反馈
资源简介:
V-HOP数据集是由布朗大学研究团队创建的,用于支持6D物体姿态跟踪研究的统一视觉触觉数据集。该数据集结合了视觉和触觉信息,通过多种夹爪和传感器布局在NVIDIA Isaac Sim模拟器中进行训练和评估。数据集整合了触觉信号和手部姿态的统一点云表示,可以适应不同的夹爪形态,并能够在novel embodiments和物体上展现出良好的泛化能力。
提供机构:
布朗大学
创建时间:
2025-02-25
AI搜集汇总
数据集介绍
main_image_url
构建方式
V-HOP 数据集的构建旨在模拟真实世界的操作环境,以提高物体位姿跟踪的准确性和鲁棒性。数据集通过 NVIDIA Isaac Sim 模拟器收集,包含八个不同类型的抓取器和十三个物体。每个抓取器都配备了触觉传感器,用于收集触觉反馈。数据集的收集过程包括模拟器中的相机轨迹采样、物体抓取和操作,以及触觉传感器数据的收集。此外,数据集还包括抓取器的描述、关节位置、触觉传感器数据、相机与机器人框架之间的转换等信息。
使用方法
V-HOP 数据集的使用方法包括:1)训练和评估模型:数据集可以用于训练和评估物体位姿跟踪模型,以验证模型在不同抓取器和物体上的泛化能力;2)研究多模态感知:数据集可以用于研究视觉和触觉信息在物体位姿跟踪中的作用和融合方式;3)研究机器人操作:数据集可以用于研究机器人操作中的物体位姿跟踪问题,以提高机器人操作的准确性和鲁棒性。
背景与挑战
背景概述
V-HOP数据集的研究背景源于人类在操作过程中自然地整合视觉和触觉信息以实现稳健的对象感知。这种多感官整合在现实世界的应用中具有重大意义,尤其是在机器人操作领域。V-HOP数据集由布朗大学和德克萨斯大学达拉斯分校的研究人员创建,旨在解决视觉和触觉反馈在真实世界环境中泛化能力不足的问题。该数据集的核心研究问题是开发一种能够无缝整合视觉和触觉输入的物体姿态追踪方法,以实现更稳健、更通用的机器人操作。V-HOP数据集的创建对相关领域产生了深远的影响,为机器人操作领域的研究提供了新的研究方向和数据基础。
当前挑战
V-HOP数据集面临的挑战主要包括:1)跨本体学习:大多数方法过度拟合特定的抓手或触觉传感器布局,限制了其适应性;2)领域泛化:与仅使用视觉的基线相比,视觉-触觉方法难以泛化,这受到了数据多样性和模型可扩展性的限制;3)序列跟踪连贯性:现有的方法通常独立地估计每个帧的对象姿态,导致在真实世界的部署中序列跟踪的一致性较差。为了解决这些挑战,V-HOP数据集提出了一种新颖的统一触觉表示,能够有效处理多种抓手形态,并引入了一种新的基于视觉-触觉转换器的物体姿态追踪器,以实现视觉和触觉输入的无缝整合。
常用场景
经典使用场景
V-HOP数据集的经典使用场景是在机器人操作中实现精确的6D物体位姿追踪。通过融合视觉和触觉信息,V-HOP能够有效地处理多种抓取器结构,并在真实世界环境中实现鲁棒的物体位姿追踪。此外,V-HOP还可以将实时物体追踪结果集成到运动规划中,以实现精确的操作任务。
解决学术问题
V-HOP数据集解决了现有视觉追踪方法在复杂环境中的鲁棒性和泛化性问题。通过融合视觉和触觉信息,V-HOP能够在高遮挡和动态交互场景中实现精确的物体位姿追踪。此外,V-HOP还提出了一种新的触觉表示方法,能够有效地处理多种抓取器结构,并实现跨模态和跨任务的泛化。
实际应用
V-HOP数据集在实际应用场景中具有广泛的应用前景,例如在机器人操作、人机交互、虚拟现实等领域。通过融合视觉和触觉信息,V-HOP可以有效地提高机器人操作的精确度和鲁棒性,从而实现更加智能和高效的操作任务。此外,V-HOP还可以用于人机交互和虚拟现实等领域,以提高用户体验和交互效果。
数据集最近研究
最新研究方向
在机器人操作领域,精确追踪物体的位姿是核心能力之一,对于实现高效的模仿或强化学习至关重要。V-HOP数据集通过融合视觉和触觉信息,实现了在接触丰富的操作场景中的鲁棒物体感知。该数据集提出了一种新的触觉表示,能够有效处理多种抓取器形态,并通过视觉和触觉输入的整合,提高了位姿追踪的一致性和鲁棒性。V-HOP在真实世界实验中表现出色,其性能显著优于现有的视觉追踪器。此外,该数据集还展示了在运动规划中集成实时物体追踪结果的优势,为精确的操作任务提供了支持。V-HOP的模型和数据集将在论文接受后开源,为该领域的研究提供了宝贵的资源。
相关研究论文
  • 1
    V-HOP: Visuo-Haptic 6D Object Pose Tracking布朗大学 · 2025年
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

中国食物成分数据库

食物成分数据比较准确而详细地描述农作物、水产类、畜禽肉类等人类赖以生存的基本食物的品质和营养成分含量。它是一个重要的我国公共卫生数据和营养信息资源,是提供人类基本需求和基本社会保障的先决条件;也是一个国家制定相关法规标准、实施有关营养政策、开展食品贸易和进行营养健康教育的基础,兼具学术、经济、社会等多种价值。 本数据集收录了基于2002年食物成分表的1506条食物的31项营养成分(含胆固醇)数据,657条食物的18种氨基酸数据、441条食物的32种脂肪酸数据、130条食物的碘数据、114条食物的大豆异黄酮数据。

国家人口健康科学数据中心 收录

中国气象数据

本数据集包含了中国2023年1月至11月的气象数据,包括日照时间、降雨量、温度、风速等关键数据。通过这些数据,可以深入了解气象现象对不同地区的影响,并通过可视化工具揭示中国的气温分布、降水情况、风速趋势等。

github 收录

HazyDet

HazyDet是由解放军工程大学等机构创建的一个大规模数据集,专门用于雾霾场景下的无人机视角物体检测。该数据集包含383,000个真实世界实例,收集自自然雾霾环境和正常场景中人工添加的雾霾效果,以模拟恶劣天气条件。数据集的创建过程结合了深度估计和大气散射模型,确保了数据的真实性和多样性。HazyDet主要应用于无人机在恶劣天气条件下的物体检测,旨在提高无人机在复杂环境中的感知能力。

arXiv 收录

INTERACTION Dataset

INTERACTION数据集是由加州大学伯克利分校机械系统控制实验室等多个国际研究机构合作创建的,旨在为自动驾驶领域提供高质量的交互式驾驶场景数据。该数据集包含多种复杂的交互式驾驶场景,如城市/高速公路/匝道合并和车道变更、环形交叉口、信号交叉口等,覆盖多个国家和文化背景,以自然方式包含不同文化的驾驶偏好和风格。数据集强调高度交互和复杂的驾驶行为,包括对抗性和合作性运动,以及从常规安全操作到危险、接近碰撞的操纵。此外,数据集提供完整的语义地图信息,包括物理层、参考线、车道连接和交通规则,记录自无人机和交通摄像头。该数据集适用于运动预测、模仿学习、决策制定和规划、表示学习、交互提取和社会行为生成等研究领域,旨在解决自动驾驶中的关键问题。

arXiv 收录

Beijing Traffic

The Beijing Traffic Dataset collects traffic speeds at 5-minute granularity for 3126 roadway segments in Beijing between 2022/05/12 and 2022/07/25.

Papers with Code 收录