five

SurgRIPE|机器人手术数据集|姿态估计数据集

收藏
arXiv2025-01-06 更新2025-01-08 收录
机器人手术
姿态估计
下载链接:
https://www.synapse.org/#!Synapse:syn51471789/wiki/
下载链接
链接失效反馈
资源简介:
SurgRIPE数据集由伦敦帝国理工学院哈姆林机器人手术中心创建,旨在为手术机器人器械姿态估计提供真实的手术视频数据。该数据集包含2841条标注帧,涵盖了手术器械的3D姿态和分割掩码信息,数据来源于达芬奇手术系统的内窥镜视频。数据集的创建过程结合了基于标记的姿态估计和深度学习图像修复技术,生成了高精度的6自由度姿态数据。该数据集主要用于评估无标记姿态估计方法,推动机器人手术系统的精确性和自主性发展。
提供机构:
伦敦帝国理工学院哈姆林机器人手术中心
创建时间:
2025-01-06
AI搜集汇总
数据集介绍
main_image_url
构建方式
SurgRIPE数据集的构建采用了创新的数据采集与处理流程,结合了基于标记的位姿估计和深度学习图像修复技术。首先,通过在手术器械上附加关键点标记,利用PnP求解器获取6自由度(6DoF)位姿的真实值。随后,通过深度学习模型对标记进行图像修复,以消除标记对位姿估计的潜在影响,确保数据集的真实性。最后,利用3D模型生成手术器械的分割掩码,确保数据集的多样性和准确性。数据集包含无遮挡和有遮挡两种场景的视频序列,以模拟真实手术环境中的复杂情况。
使用方法
SurgRIPE数据集的使用方法主要包括训练和评估无标记位姿估计算法。研究人员可以利用数据集中的视频序列和对应的6DoF位姿标注,训练深度学习模型以预测手术器械的位姿。数据集还提供了分割掩码和相机内参矩阵,支持多任务学习。评估时,可以使用数据集提供的基准工具,计算平均3D距离(ADD)和平均精度(Avg Acc)等指标,以衡量算法的性能。此外,数据集的无遮挡和有遮挡场景分别用于测试算法在不同条件下的鲁棒性,为手术机器人系统的开发提供了重要参考。
背景与挑战
背景概述
SurgRIPE数据集由伦敦帝国理工学院的Hamlyn机器人手术中心于2023年创建,旨在解决机器人辅助微创手术(RMIS)中手术器械姿态估计的核心问题。该数据集通过提供真实的手术视频数据及其对应的地面真值姿态信息,推动了无标记姿态估计方法的发展。SurgRIPE挑战赛在2023年的国际医学图像计算与计算机辅助干预会议(MICCAI)上首次亮相,迅速成为该领域的重要基准。该数据集的发布不仅填补了手术场景中6自由度(6DoF)姿态估计的空白,还为深度学习模型的训练和评估提供了高质量的数据支持,推动了手术机器人技术的进一步发展。
当前挑战
SurgRIPE数据集在构建和应用过程中面临多重挑战。首先,手术场景中的部分物体可见性和复杂的光照条件使得姿态估计的准确性难以保证。其次,手术器械与软组织和器官的交互可能导致遮挡,进一步增加了姿态估计的难度。此外,手术器械的尺寸较小,要求姿态估计的精度达到毫米级别,这对数据采集和标注提出了极高的要求。在数据构建过程中,如何在不依赖外部标记的情况下生成高精度的地面真值姿态信息也是一个技术难点。SurgRIPE通过结合标记姿态估计和深度学习图像修复技术,成功克服了这些挑战,但如何进一步提升数据集的多样性和泛化能力仍是未来研究的重点。
常用场景
经典使用场景
SurgRIPE数据集在机器人辅助微创手术(RMIS)领域中被广泛用于手术器械姿态估计的研究。该数据集通过提供真实的手术视频数据及其对应的器械姿态真值,为研究人员提供了一个标准化的基准平台。经典的使用场景包括在无遮挡和有遮挡条件下,利用深度学习模型进行手术器械的6自由度(6DoF)姿态估计。通过该数据集,研究人员能够评估和比较不同算法在复杂手术环境中的性能表现。
解决学术问题
SurgRIPE数据集解决了手术器械姿态估计中的关键学术问题,尤其是在无标记条件下的姿态估计。传统方法依赖于外部标记或硬件设备,限制了其在手术室中的实际应用。SurgRIPE通过提供高精度的真值数据,推动了无标记姿态估计算法的发展,解决了手术场景中部分可见性、遮挡和光照变化等挑战。该数据集为手术器械姿态估计的算法研究提供了可靠的数据支持,显著提升了算法的鲁棒性和精度。
实际应用
SurgRIPE数据集的实际应用主要集中在机器人辅助手术系统中,尤其是手术器械的实时跟踪和姿态估计。通过该数据集训练的算法可以应用于手术机器人的自主任务执行、手术技能评估和手术流程分析等领域。例如,在达芬奇手术系统中,SurgRIPE数据集可以帮助实现更精确的器械定位和操作,减少手术中的误差,提升手术的安全性和效率。此外,该数据集还可用于开发新的手术辅助工具,进一步提升手术的自动化水平。
数据集最近研究
最新研究方向
近年来,SurgRIPE数据集在机器人辅助微创手术(RMIS)领域的研究方向主要集中在无标记手术器械姿态估计的深度学习算法开发。随着机器人手术技术的快速发展,精确的器械姿态估计成为实现手术自动化的关键步骤。传统方法依赖于外部标记或运动学信息,但这些方法在手术室环境中存在硬件限制和误差累积问题。SurgRIPE挑战赛通过提供真实的手术视频数据及其对应的地面真实姿态,推动了无标记姿态估计方法的研究。最新的研究热点包括基于深度学习的多阶段姿态估计框架、表面嵌入学习以及几何一致性验证等技术的应用。这些方法在应对手术场景中的部分可见性、遮挡和复杂几何形状等挑战方面表现出显著优势。SurgRIPE数据集的引入不仅为手术器械姿态估计提供了标准化的评估基准,还为未来手术机器人的自主化操作奠定了数据基础,具有重要的临床应用价值。
相关研究论文
  • 1
    SurgRIPE challenge: Benchmark of Surgical Robot Instrument Pose Estimation伦敦帝国理工学院哈姆林机器人手术中心 · 2025年
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

Med-MAT

Med-MAT是一个包含106个开源医学数据集的视觉问答(VQA)数据集,旨在推动医学多模态大语言模型(MLLMs)的泛化实验和训练。数据集通过将图像-标签对转换为VQA格式,展示了组合泛化(CG)是MLLMs理解未见图像的关键机制。数据集包括106个医学数据集的问答对、53个按模态、解剖区域和任务(MAT)分类的子集的问答对,以及部分数据集的图像下载链接。

huggingface 收录

CatMeows

该数据集包含440个声音样本,由21只属于两个品种(缅因州库恩猫和欧洲短毛猫)的猫在三种不同情境下发出的喵声组成。这些情境包括刷毛、在陌生环境中隔离和等待食物。每个声音文件都遵循特定的命名约定,包含猫的唯一ID、品种、性别、猫主人的唯一ID、录音场次和发声计数。此外,还有一个额外的zip文件,包含被排除的录音(非喵声)和未剪辑的连续发声序列。

huggingface 收录

GME Data

关于2021年GameStop股票活动的数据,包括每日合并的GME短期成交量数据、每日失败交付数据、可借股数、期权链数据以及不同时间框架的开盘/最高/最低/收盘/成交量条形图。

github 收录

Sleep

该数据集包含关于睡眠效率和持续时间的信息,每个条目代表一个独特的睡眠体验,并包括ID、年龄、性别、睡眠持续时间、睡眠效率、REM睡眠百分比、深度睡眠百分比、轻度睡眠百分比、觉醒次数、咖啡因消费、酒精消费和吸烟状况等列。

github 收录

China Health and Nutrition Survey (CHNS)

China Health and Nutrition Survey(CHNS)是一项由美国北卡罗来纳大学人口中心与中国疾病预防控制中心营养与健康所合作开展的长期开放性队列研究项目,旨在评估国家和地方政府的健康、营养与家庭计划政策对人群健康和营养状况的影响,以及社会经济转型对居民健康行为和健康结果的作用。该调查覆盖中国15个省份和直辖市的约7200户家庭、超过30000名个体,采用多阶段随机抽样方法,收集了家庭、个体以及社区层面的详细数据,包括饮食、健康、经济和社会因素等信息。自2011年起,CHNS不断扩展,新增多个城市和省份,并持续完善纵向数据链接,为研究中国社会经济变化与健康营养的动态关系提供了重要的数据支持。

www.cpc.unc.edu 收录