five

UCSC-VLAA/HQ-Edit|图像编辑数据集|人工智能数据集

收藏
hugging_face2024-04-17 更新2024-04-19 收录
图像编辑
人工智能
下载链接:
https://hf-mirror.com/datasets/UCSC-VLAA/HQ-Edit
下载链接
链接失效反馈
资源简介:
HQ-Edit是一个高质量的指令式图像编辑数据集,包含总共197,350次编辑。与依赖属性指导或人类反馈构建数据集的传统方法不同,我们设计了一个利用GPT-4V和DALL-E 3等高级基础模型的可扩展数据收集管道。HQ-Edit的高分辨率图像,细节丰富并伴随全面的编辑提示,显著增强了现有图像编辑模型的能力。
提供机构:
UCSC-VLAA
原始信息汇总

数据集概述

名称: HQ-Edit

描述: HQ-Edit是一个高质量的基于指令的图像编辑数据集,包含197,350次编辑。该数据集利用先进的模型GPT-4V和DALL-E 3构建,提供高分辨率图像和详细的编辑指令,显著增强了现有图像编辑模型的能力。

语言: 英语(en)

规模: 10万<n<100万

许可: CC-BY-NC-4.0

数据集结构

  • input (字符串): 输入图像的描述。
  • input_image (图像): 输入图像。
  • edit (字符串): 将输入图像转换为输出图像的编辑指令。
  • inverse_edit (字符串): 将输出图像转换回输入图像的逆向编辑指令。
  • output (字符串): 输出图像的描述。
  • output_image (图像): 输出图像。

数据集分割

  • 训练集: 包含98,675个示例。

引用信息

若使用此数据集,请引用以下论文:

@article{hui2024hq, title = {HQ-Edit: A High-Quality Dataset for Instruction-based Image Editing}, author = {Hui, Mude and Yang, Siwei and Zhao, Bingchen and Shi, Yichun and Wang, Heng and Wang, Peng and Zhou, Yuyin and Xie, Cihang}, journal = {arXiv preprint arXiv:2404.09990}, year = {2024} }

AI搜集汇总
数据集介绍
main_image_url
构建方式
UCSC-VLAA/HQ-Edit数据集的构建采用了一种创新的数据收集管道,该管道借助先进的基模型GPT-4V和DALL-E 3,实现了大规模的数据采集。此数据集包含了197,350个编辑,每个编辑都是由高分辨率图像和详尽的编辑指令组成,这些图像和指令共同构成了数据集的核心内容。
特点
该数据集的特点在于其高质量和丰富的细节。它不仅包含了输入和输出图像,还提供了相应的编辑指令及其逆向指令,这为图像编辑模型提供了全面而具体的指导。此外,数据集的图像分辨率高,细节丰富,有助于提升现有图像编辑模型的性能。
使用方法
用户可以通过HuggingFace的Dataset Viewer在线预览UCSC-VLAA/HQ-Edit数据集。数据集的 splits 包括训练集,共98,675个样本。用户可以根据需要,利用数据集中的输入图像、编辑指令以及输出图像进行模型训练、评估和测试。在使用数据集时,需遵守cc-by-nc-4.0版权协议。
背景与挑战
背景概述
在图像编辑领域,UCSC-VLAA/HQ-Edit数据集标志着一次重要的技术进步,由Mude Hui等人于2024年创建。该数据集通过运用先进的预训练模型GPT-4V和DALL-E 3,构建了一个可扩展的数据收集流程,旨在提升图像编辑模型的性能。数据集包含197,350个高质量编辑,其特色在于高分辨率图像和详尽的编辑提示,这些特性极大地增强了现有图像编辑模型的处理能力。该数据集的问世,对图像编辑研究产生了深远影响,推动了相关技术的发展。
当前挑战
UCSC-VLAA/HQ-Edit数据集在构建过程中面临了多重挑战。首先,如何确保数据收集流程的可持续性和编辑指令的准确性是一个关键问题。其次,数据集需要解决如何平衡图像质量与数据量的关系,以保证模型训练的有效训练。此外,编辑指令的可逆性增加了数据构建的复杂性,要求输出图像能够精确还原至原始状态。这些挑战不仅考验了数据集构建者的技术能力,也推动了图像编辑领域的创新解决方案的发展。
常用场景
经典使用场景
在图像处理与编辑领域,UCSC-VLAA/HQ-Edit数据集以其高分辨率图像和详尽的编辑提示,成为提升现有图像编辑模型能力的宝贵资源。该数据集的经典使用场景在于,研究者可通过其中的输入图像、编辑指令以及输出图像,训练模型以学习执行复杂的图像编辑任务,如风格转换、色彩调整等,从而实现自动化的图像编辑流程。
实际应用
在实际应用中,UCSC-VLAA/HQ-Edit数据集可用于改进图像处理软件的自动化编辑功能,使得普通用户能够通过简单的文本指令实现专业级别的图像编辑效果,广泛应用于广告设计、摄影后期等领域,极大地提升了工作效率。
衍生相关工作
基于UCSC-VLAA/HQ-Edit数据集,研究者们衍生出了一系列相关工作,如编辑指令的优化算法、图像编辑效果的评估方法等。这些工作不仅推动了图像编辑技术的进步,也为相关领域的理论研究提供了新的视角和数据基础。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

中国区域地面气象要素驱动数据集 v2.0(1951-2024)

中国区域地面气象要素驱动数据集(China Meteorological Forcing Data,以下简称 CMFD)是为支撑中国区域陆面、水文、生态等领域研究而研发的一套高精度、高分辨率、长时间序列数据产品。本页面发布的 CMFD 2.0 包含了近地面气温、气压、比湿、全风速、向下短波辐射通量、向下长波辐射通量、降水率等气象要素,时间分辨率为 3 小时,水平空间分辨率为 0.1°,时间长度为 74 年(1951~2024 年),覆盖了 70°E~140°E,15°N~55°N 空间范围内的陆地区域。CMFD 2.0 融合了欧洲中期天气预报中心 ERA5 再分析数据与气象台站观测数据,并在辐射、降水数据产品中集成了采用人工智能技术制作的 ISCCP-ITP-CNN 和 TPHiPr 数据产品,其数据精度较 CMFD 的上一代产品有显著提升。 CMFD 历经十余年的发展,其间发布了多个重要版本。2019 年发布的 CMFD 1.6 是完全采用传统数据融合技术制作的最后一个 CMFD 版本,而本次发布的 CMFD 2.0 则是 CMFD 转向人工智能技术制作的首个版本。此版本与 1.6 版具有相同的时空分辨率和基础变量集,但在其它诸多方面存在大幅改进。除集成了采用人工智能技术制作的辐射和降水数据外,在制作 CMFD 2.0 的过程中,研发团队尽可能采用单一来源的再分析数据作为输入并引入气象台站迁址信息,显著缓解了 CMFD 1.6 中因多源数据拼接和气象台站迁址而产生的虚假气候突变。同时,CMFD 2.0 数据的时间长度从 CMFD 1.6 的 40 年大幅扩展到了 74 年,并将继续向后延伸。CMFD 2.0 的网格空间范围虽然与 CMFD 1.6 相同,但其有效数据扩展到了中国之外,能够更好地支持跨境区域研究。为方便用户使用,CMFD 2.0 还在基础变量集之外提供了若干衍生变量,包括近地面相对湿度、雨雪分离降水产品等。此外,CMFD 2.0 摒弃了 CMFD 1.6 中通过 scale_factor 和 add_offset 参数将实型数据化为整型数据的压缩技术,转而直接将实型数据压缩存储于 NetCDF4 格式文件中,从而消除了用户使用数据时进行解压换算的困扰。 本数据集原定版本号为 1.7,但鉴于本数据集从输入数据到研制技术都较上一代数据产品有了大幅的改变,故将其版本号重新定义为 2.0。CMFD 2.0 的数据内容与此前宣传的 CMFD 1.7 基本一致,仅对 1983 年 7 月以后的向下短/长波辐射通量数据进行了更新,以修正其长期趋势存在的问题。

国家青藏高原科学数据中心 收录

Global Flood Database (GFD)

全球洪水数据库(GFD)是一个包含全球范围内洪水事件记录的数据集。该数据集提供了详细的洪水事件信息,包括洪水发生的时间、地点、影响范围、受灾人口和财产损失等。数据集的目的是为了支持洪水风险评估、灾害管理和气候变化研究。

global-flood-database.cloudtostreet.info 收录

中国1km分辨率逐月平均气温数据集(1901-2024)

该数据为中国逐月平均温度数据,空间分辨率为0.0083333°(约1km),时间为1901.1-2024.12。数据格式为NETCDF,即.nc格式。数据单位为0.1 ℃。该数据集是根据CRU发布的全球0.5°气候数据集以及WorldClim发布的全球高分辨率气候数据集,通过Delta空间降尺度方案在中国降尺度生成的。并且,使用496个独立气象观测点数据进行验证,验证结果可信。本数据集包含的地理空间范围是全国主要陆地(包含港澳台地区),不含南海岛礁等区域。nc数据可使用ArcMAP软件打开制图; 并可用Matlab软件进行提取处理,Matlab发布了读入与存储nc文件的函数,读取函数为ncread,切换到nc文件存储文件夹,语句表达为:ncread (‘XXX.nc’,‘var’, [i j t],[leni lenj lent]),其中XXX.nc为文件名,为字符串需要’’;var是从XXX.nc中读取的变量名,为字符串需要’’;i、j、t分别为读取数据的起始行、列、时间,leni、lenj、lent i分别为在行、列、时间维度上读取的长度。这样,研究区内任何地区、任何时间段均可用此函数读取。Matlab的help里面有很多关于nc数据的命令,可查看。数据坐标系统建议使用WGS84。

国家青藏高原科学数据中心 收录

全国兴趣点(POI)数据

  POI(Point of Interest),即兴趣点,一个POI可以是餐厅、超市、景点、酒店、车站、停车场等。兴趣点通常包含四方面信息,分别为名称、类别、坐标、分类。其中,分类一般有一级分类和二级分类,每个分类都有相应的行业的代码和名称一一对应。  POI包含的信息及其衍生信息主要包含三个部分:

CnOpenData 收录

ISIC 2018

ISIC 2018数据集包含2594张皮肤病变图像,用于皮肤癌检测任务。数据集分为训练集、验证集和测试集,每张图像都附有详细的元数据,包括病变类型、患者年龄、性别和解剖部位等信息。

challenge2018.isic-archive.com 收录