five

UniMed|医学成像数据集|多模态数据数据集

收藏
arXiv2024-12-14 更新2024-12-17 收录
医学成像
多模态数据
下载链接:
https://github.com/mbzuai-oryx/UniMed-CLIP
下载链接
链接失效反馈
资源简介:
UniMed是一个大规模、开源的多模态医学数据集,由穆罕默德·本·扎耶德人工智能大学等机构创建,包含超过530万张图像-文本对,涵盖六种不同的医学成像模态:X射线、CT、MRI、超声、病理和眼底。数据集通过利用大型语言模型(LLMs)将特定模态的分类数据集转换为图像-文本格式,并结合现有的医学图像-文本数据,实现了可扩展的视觉-语言模型(VLM)预训练。UniMed旨在解决医学领域中公开可用的大规模图像-文本数据稀缺的问题,适用于多种医学成像任务,如零样本分类和跨模态泛化。
提供机构:
穆罕默德·本·扎耶德人工智能大学
创建时间:
2024-12-14
原始信息汇总

UniMed-CLIP: Towards a Unified Image-Text Pretraining Paradigm for Diverse Medical Imaging Modalities

数据集概述

数据集名称

UniMed-CLIP

数据集描述

UniMed-CLIP 是一个用于多种医学影像模态的统一图像-文本预训练范式的数据集。该数据集包含超过 5.3 百万的图像-文本对,涵盖六种不同的医学影像模态:X-ray、CT、MRI、Ultrasound、Pathology 和 Fundus。

数据集特点

  1. 多模态数据集:UniMed 数据集包含六种不同的医学影像模态,提供了丰富的多模态数据。
  2. 大规模数据:数据集包含超过 5.3 百万的图像-文本对,为训练通用医学视觉-语言模型提供了坚实的基础。
  3. 开放源代码:提供了详细的代码和注释文件,用于准备 UniMed 数据集,促进医学视觉-语言模型的开源研究。

数据集应用

UniMed-CLIP 数据集主要用于训练和评估医学视觉-语言模型(VLMs),特别是在零样本评估中表现出色。

数据集贡献

  1. UniMed 数据集:一个开放源代码的大规模多模态医学数据集,包含超过 5.3 百万的样本,覆盖六种不同的医学模态。
  2. UniMed-CLIP VLMs:基于 UniMed 数据集训练的对比学习视觉-语言模型,显著优于现有的通用 VLMs,并在多种医学模态上表现出色。
  3. 广泛的评估和分析:提供了对不同设计选择的消融实验,并开源了训练代码、数据集和模型检查点,以促进医学 VLMs 的进一步研究。

数据集性能

方法 论文链接 X-ray Retinal-Fundus CT MRI US Histopathology 平均分
BioMedCLIP Link 55.43 22.87 43.99 64.59 49.20 54.50 49.02
PMC-CLIP Link 52.64 25.84 66.06 63.68 62.51 53.56 53.37
UniMed-CLIP Link 68.78 31.23 85.54 68.83 68.64 59.96 61.63

数据集更新

  • 2024年12月13日:发布了用于准备 UniMed 预训练数据集的注释和代码脚本,以及 UniMed-CLIP 的训练和推理代码,以及预训练的检查点。

数据集准备

提供了详细的说明和注释文件,用于准备 UniMed 数据集,具体内容请参考 UniMed-DATA.md

预训练模型

提供了三个 UniMed-CLIP 模型的权重,具体信息如下:

model_name text encoder pretrained_weights 分辨率 GPUs 21个数据集的平均分
ViT-B-16-quickgelu BiomedNLP-BiomedBERT-base-uncased-abstract unimed_clip_vit_b16 224 16 x A100 (40G) 61.63
ViT-L-14-quickgelu BiomedNLP-BiomedBERT-large-uncased-abstract unimed_clip_vit_l14_large_text_encoder 336 16 x A100 (40G) 62.09
ViT-L-14-quickgelu BiomedNLP-BiomedBERT-base-uncased-abstract unimed_clip_vit_l14_base_text_encoder 336 16 x A100 (40G) 64.84

数据集引用

如果使用该数据集,请引用以下论文: bibtex @inproceedings{khattakunimed, title={UniMed-CLIP: Towards a Unified Image-Text Pretraining Paradigm for Diverse Medical Imaging Modalities}, author={khattak, Muhammad Uzair and Kunhimon, Shahina and Muzzamal, Naseer and Khan, Salman and Khan, Fahad Shahbaz}, journal={arXiv:2412.10372}, year={2024} }

AI搜集汇总
数据集介绍
main_image_url
构建方式
UniMed数据集通过一个可扩展的数据收集框架构建,该框架利用大型语言模型(LLMs)将特定模态的分类数据集转换为图像-文本格式。具体而言,研究团队从公开的医学图像-文本数据集中提取了现有的图像-文本对,并结合了通过LLMs生成的伪图像-文本对,最终形成了包含530万对图像-文本的多模态医学数据集。该数据集涵盖了六种不同的医学成像模态,包括X射线、CT、MRI、超声、病理学和眼底成像。
特点
UniMed数据集的主要特点在于其大规模、开放性和多样性。该数据集包含了超过530万对图像-文本对,覆盖了六种不同的医学成像模态,能够为多模态视觉语言模型的预训练提供丰富的数据支持。此外,UniMed数据集的构建过程中使用了LLMs生成的伪图像-文本对,增强了数据集的多样性和质量,使其在零样本和少样本任务中表现出色。
使用方法
UniMed数据集可用于训练和评估多模态视觉语言模型(VLMs),特别是在医学图像识别和分类任务中。用户可以通过对比学习的方式,利用该数据集进行图像-文本对的预训练,从而提升模型在零样本和少样本任务中的泛化能力。此外,UniMed数据集还提供了训练代码和模型检查点,便于研究者进行进一步的研究和开发。
背景与挑战
背景概述
随着视觉-语言模型(VLMs)在自然图像任务中的显著成功,其在医疗领域的应用潜力逐渐受到关注。然而,医疗领域中公开可用的、大规模的图像-文本数据集的稀缺性限制了VLMs在该领域的广泛应用。现有的医疗VLMs大多依赖于封闭的专有数据集或相对较小的开源数据集,这些数据集的泛化能力有限,且大多数模型仅针对单一或有限的医疗成像领域,限制了其跨模态的适用性。为解决这一问题,UniMed数据集应运而生,由Mohamed bin Zayed University of AI等机构的研究人员开发,于2024年推出。该数据集包含了超过530万张图像-文本对,涵盖了X射线、CT、MRI、超声、病理和眼底成像等六种多样化的医疗成像模态。通过利用大型语言模型(LLMs)将模态特定的分类数据集转换为图像-文本格式,UniMed为视觉-语言模型的预训练提供了强大的数据支持,推动了医疗领域多模态基础模型的研究。
当前挑战
UniMed数据集的构建面临多重挑战。首先,医疗数据的隐私性和敏感性使得数据的收集和标注过程极为复杂,尤其是在涉及患者隐私的情况下。其次,医疗图像与自然图像的差异较大,医疗图像的多样性和复杂性要求模型具备更强的泛化能力。此外,现有医疗数据集的规模较小,且多为单一模态,难以满足大规模预训练的需求。UniMed通过引入LLMs生成伪图像-文本对,解决了医疗领域图像-文本数据稀缺的问题,但其生成的文本质量与多样性仍需进一步优化。最后,如何在保护患者隐私的前提下,确保数据集的开放性和可访问性,也是UniMed面临的重要挑战。
常用场景
经典使用场景
UniMed数据集的经典使用场景在于其为多模态医学图像与文本数据的预训练提供了丰富的资源。通过整合超过530万对图像-文本数据,涵盖X射线、CT、MRI、超声、病理学和眼底图像等多种医学成像模态,UniMed为训练统一的视觉-语言模型(VLM)提供了坚实的基础。其主要应用场景包括零样本分类、图像检索和分割等任务,尤其在医学图像识别领域表现突出。
实际应用
UniMed数据集在实际应用中具有广泛的潜力,尤其是在医学图像的自动诊断和辅助决策系统中。通过训练基于UniMed的视觉-语言模型,医生可以利用这些模型进行零样本分类、图像检索和分割等任务,从而提高诊断的准确性和效率。例如,在放射科、眼科和病理学等领域,UniMed-CLIP模型可以快速识别和分类不同类型的医学图像,帮助医生做出更精准的诊断决策。
衍生相关工作
基于UniMed数据集,许多相关工作得以展开,尤其是在医学视觉-语言模型的预训练和应用方面。例如,UniMed-CLIP模型的成功训练为后续研究提供了参考,推动了更多针对医学图像的多模态模型开发。此外,UniMed的开放性也激发了其他研究者构建类似的多模态医学数据集,进一步丰富了医学图像处理领域的研究资源。相关工作还包括对不同模态数据的融合研究,以及如何利用大规模数据集提升模型的泛化能力。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

MedDialog

MedDialog数据集(中文)包含了医生和患者之间的对话(中文)。它有110万个对话和400万个话语。数据还在不断增长,会有更多的对话加入。原始对话来自好大夫网。

github 收录

LFW

人脸数据集;LFW数据集共有13233张人脸图像,每张图像均给出对应的人名,共有5749人,且绝大部分人仅有一张图片。每张图片的尺寸为250X250,绝大部分为彩色图像,但也存在少许黑白人脸图片。 URL: http://vis-www.cs.umass.edu/lfw/index.html#download

AI_Studio 收录

AgiBot World

为了进一步推动通用具身智能领域研究进展,让高质量机器人数据触手可及,作为上海模塑申城语料普惠计划中的一份子,智元机器人携手上海人工智能实验室、国家地方共建人形机器人创新中心以及上海库帕思,重磅发布全球首个基于全域真实场景、全能硬件平台、全程质量把控的百万真机数据集开源项目 AgiBot World。这一里程碑式的开源项目,旨在构建国际领先的开源技术底座,标志着具身智能领域 「ImageNet 时刻」已到来。AgiBot World 是全球首个基于全域真实场景、全能硬件平台、全程质量把控的大规模机器人数据集。相比于 Google 开源的 Open X-Embodiment 数据集,AgiBot World 的长程数据规模高出 10 倍,场景范围覆盖面扩大 100 倍,数据质量从实验室级上升到工业级标准。AgiBot World 数据集收录了八十余种日常生活中的多样化技能,从抓取、放置、推、拉等基础操作,到搅拌、折叠、熨烫等精细长程、双臂协同复杂交互,几乎涵盖了日常生活所需的绝大多数动作需求。

github 收录

YOLO Drone Detection Dataset

为了促进无人机检测模型的开发和评估,我们引入了一个新颖且全面的数据集,专门为训练和测试无人机检测算法而设计。该数据集来源于Kaggle上的公开数据集,包含在各种环境和摄像机视角下捕获的多样化的带注释图像。数据集包括无人机实例以及其他常见对象,以实现强大的检测和分类。

github 收录

中国行政区划数据

本项目为中国行政区划数据,包括省级、地级、县级、乡级和村级五级行政区划数据。数据来源于国家统计局,存储格式为sqlite3 db文件,支持直接使用数据库连接工具打开。

github 收录