five

IMed-361M|医学图像分割数据集|多模态数据数据集

收藏
github2024-11-23 更新2024-11-28 收录
医学图像分割
多模态数据
下载链接:
https://github.com/uni-medical/IMIS-Bench
下载链接
链接失效反馈
资源简介:
IMed-361M数据集是最大的公开多模态交互式医学图像分割数据集,包含640万张图像、2.734亿个掩码(每张图像56个掩码)、14种成像模式和204个分割目标。它确保了六个解剖组之间的多样性,细粒度注释,大多数掩码覆盖的图像区域小于2%,并且广泛适用,83%的图像分辨率在256×256到1024×1024之间。IMed-361M提供的掩码数量是MedTrinity-25M的14.4倍,显著超过了其他数据集的规模和掩码数量。
创建时间:
2024-11-05
原始信息汇总

IMIS-Benchmark 数据集概述

数据集简介

  • 名称: IMed-361M
  • 描述: IMed-361M 是最大的公开多模态交互式医学图像分割数据集,包含超过 361 百万个掩码。
  • 规模:
    • 图像数量: 6.4 百万
    • 掩码数量: 273.4 百万(每张图像 56 个掩码)
    • 成像模态: 14 种
    • 分割目标: 204 个
  • 特点:
    • 多样性: 涵盖六个解剖组
    • 精细标注: 大多数掩码覆盖图像面积小于 2%
    • 广泛适用性: 83% 的图像分辨率在 256×256 到 1024×1024 之间
    • 规模优势: 提供的掩码数量是 MedTrinity-25M 的 14.4 倍

数据集来源

  • 创建方式: 通过预处理来自私有和公开的医学图像分割数据集的组合创建。
  • 详细信息: 关于源数据集的详细信息,请参阅论文。

数据集结构

sh dataset ├── BTCV │ ├─ image │ │ ├── xxx.png │ │ ├── .... │ │ ├── xxx.png │ ├── label │ │ ├── xxx.npz │ │ ├── .... │ │ ├── xxx.npz │ ├── imask │ │ ├── xxx.npy │ │ ├── .... │ │ ├── xxx.npy │ └── dataset.json

数据集获取

  • 获取方式: 数据集将通过 HuggingFace 平台提供。
  • 示例数据: 提供了一个小样本演示数据集 IMIS-Bench/dataset。

引用

bibtex @article{cheng2024interactivemedicalimagesegmentation, title={Interactive Medical Image Segmentation: A Benchmark Dataset and Baseline}, author={Junlong Cheng and Bin Fu and Jin Ye and Guoan Wang and Tianbin Li and Haoyu Wang and Ruoyu Li and He Yao and Junren Chen and JingWen Li and Yanzhou Su and Min Zhu and Junjun He}, year={2024}, eprint={2411.12814}, archivePrefix={arXiv}, primaryClass={cs.CV}, url={https://arxiv.org/abs/2411.12814}, }

AI搜集汇总
数据集介绍
main_image_url
构建方式
IMed-361M数据集的构建基于对110个来自不同来源的医学图像数据集的严格预处理和标准化处理流程。通过这一流程,生成了包含超过361百万个掩码的IMed-361M数据集。该数据集的构建不仅确保了数据的高质量和多样性,还通过精细的标注过程,使得大多数掩码覆盖的图像区域小于2%,从而提高了数据集的实用性和适用性。
特点
IMed-361M数据集是当前公开的最大多模态交互式医学图像分割数据集,具有640万张图像和273.4百万个掩码,每张图像平均有56个掩码。该数据集涵盖了14种成像模态和204个分割目标,确保了数据的多模态性和广泛的应用范围。此外,数据集的图像分辨率主要集中在256×256到1024×1024之间,提供了丰富的细节信息,使其在医学图像分割领域具有显著的优势。
使用方法
IMed-361M数据集可通过HuggingFace平台获取,用户可以下载并将其用于各种医学图像分割任务。数据集的结构包括图像、标签和掩码文件,用户可以通过提供的示例代码快速上手。为了进一步利用该数据集,用户可以参考提供的训练和评估脚本,通过调整参数如图像大小、掩码数量和数据路径等,进行模型的训练和评估。此外,数据集还提供了模型检查点,用户可以通过下载并放置在指定目录中,以加速模型的训练和验证过程。
背景与挑战
背景概述
IMed-361M数据集是由Uni-Medical团队创建的,旨在推动交互式医学图像分割技术的发展。该数据集通过整合110个来自不同来源的医学图像数据集,经过严格和标准化的数据处理流程,生成了包含超过3.61亿个掩码的IMed-361M数据集。IMed-361M不仅是目前最大的公开多模态交互式医学图像分割数据集,还包含了640万张图像、2.734亿个掩码、14种成像模态和204个分割目标。其多样性覆盖了六个解剖组,细粒度注释确保大多数掩码覆盖的图像区域小于2%,广泛适用于分辨率在256×256到1024×1024之间的图像。IMed-361M的创建不仅为医学图像分割领域提供了丰富的资源,也为相关研究提供了强有力的支持。
当前挑战
IMed-361M数据集在构建过程中面临了多重挑战。首先,整合来自不同来源的110个医学图像数据集,确保数据的一致性和质量是一个巨大的挑战。其次,生成超过3.61亿个掩码,需要高效的算法和计算资源,以保证掩码的准确性和覆盖率。此外,数据集的多模态特性要求在处理和标注过程中保持各模态数据的一致性。最后,如何有效地管理和分发如此大规模的数据集,确保其广泛应用于研究和实际应用中,也是一个不容忽视的挑战。这些挑战不仅考验了数据集构建者的技术能力,也为后续研究者提供了丰富的研究方向。
常用场景
经典使用场景
在医学影像分析领域,IMed-361M数据集因其庞大的规模和多样的影像模态而成为研究交互式医学图像分割的经典工具。该数据集包含超过361百万个掩码,覆盖了204个分割目标,适用于多种解剖结构。研究者们利用这一数据集训练和验证交互式分割模型,通过模拟连续的交互式分割训练,提升模型在复杂医学影像中的分割精度。
衍生相关工作
基于IMed-361M数据集,研究者们开发了多种先进的交互式分割模型,如IMIS基准网络,这些模型在多个公开数据集上表现优异。此外,该数据集还激发了一系列关于医学图像分割的深入研究,包括但不限于多模态融合、自适应交互策略和实时分割算法等。这些衍生工作不仅提升了医学影像分析的技术水平,也为未来的研究提供了丰富的理论和实践基础。
数据集最近研究
最新研究方向
在医学影像分割领域,IMed-361M数据集的引入标志着该领域研究的前沿进展。该数据集不仅规模庞大,包含超过361百万个掩码,而且涵盖了14种成像模式和204个分割目标,极大地丰富了研究的多样性和深度。当前的研究主要集中在利用IMed-361M进行多模态交互式分割模型的开发与优化,旨在通过模拟连续的交互式训练,提升分割算法的精度和效率。此外,该数据集的广泛应用性,特别是在高分辨率图像上的表现,为医学影像分析提供了新的可能性,推动了精准医疗的发展。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

中国农村金融统计数据

该数据集包含了中国农村金融的统计信息,涵盖了农村金融机构的数量、贷款余额、存款余额、金融服务覆盖率等关键指标。数据按年度和地区分类,提供了详细的农村金融发展状况。

www.pbc.gov.cn 收录

RAVDESS

情感语音和歌曲 (RAVDESS) 的Ryerson视听数据库包含7,356个文件 (总大小: 24.8 GB)。该数据库包含24位专业演员 (12位女性,12位男性),以中性的北美口音发声两个词汇匹配的陈述。言语包括平静、快乐、悲伤、愤怒、恐惧、惊讶和厌恶的表情,歌曲则包含平静、快乐、悲伤、愤怒和恐惧的情绪。每个表达都是在两个情绪强度水平 (正常,强烈) 下产生的,另外还有一个中性表达。所有条件都有三种模态格式: 纯音频 (16位,48kHz .wav),音频-视频 (720p H.264,AAC 48kHz,.mp4) 和仅视频 (无声音)。注意,Actor_18没有歌曲文件。

OpenDataLab 收录

CE-CSL

CE-CSL数据集是由哈尔滨工程大学智能科学与工程学院创建的中文连续手语数据集,旨在解决现有数据集在复杂环境下的局限性。该数据集包含5,988个从日常生活场景中收集的连续手语视频片段,涵盖超过70种不同的复杂背景,确保了数据集的代表性和泛化能力。数据集的创建过程严格遵循实际应用导向,通过收集大量真实场景下的手语视频材料,覆盖了广泛的情境变化和环境复杂性。CE-CSL数据集主要应用于连续手语识别领域,旨在提高手语识别技术在复杂环境中的准确性和效率,促进聋人与听人社区之间的无障碍沟通。

arXiv 收录

MID-Ship

MID-Ship是一个用于复杂海上船舶导航行为的数据集,由上海海事大学创建,旨在解决船舶目标检测中的遮挡和密集交互问题。该数据集包含5673张图像,总计135,884个精细标注的目标实例,涵盖多种海上场景,如不同天气条件下的船舶相遇、靠泊操作、小目标聚集和部分遮挡等。数据集通过高分辨率视频片段采集,覆盖43个不同的可航水域,并包含多种天气和光照条件,增强了数据集的多样性和实用性。MID-Ship主要应用于智能海上交通监控系统和自主船舶导航,旨在提高复杂环境下的船舶检测和跟踪能力,减少海上事故。

arXiv 收录

Solar Radiation Data

该数据集包含全球多个地点的太阳辐射数据,涵盖了不同时间段和气象条件下的辐射强度。数据包括直接辐射、散射辐射和总辐射等指标,适用于太阳能资源评估和气候研究。

www.nrel.gov 收录