five

FoodieQA|中国饮食文化数据集|多模态数据处理数据集

收藏
arXiv2024-06-17 更新2024-08-06 收录
中国饮食文化
多模态数据处理
下载链接:
http://arxiv.org/abs/2406.11030v1
下载链接
链接失效反馈
资源简介:
FoodieQA是一个专注于中国饮食文化细粒度理解的多模态数据集,由哥本哈根大学计算机科学系等机构合作创建。该数据集包含502张由当地人上传的未公开在线的食品图片,覆盖中国14种不同的菜系。创建过程中,通过五个阶段确保数据的地域性和文化代表性,包括菜系选择、图像收集、特色菜注释、视觉问题制定和文本问题制定。FoodieQA旨在通过多选题形式,评估模型在视觉和文本信息处理上的能力,特别是在理解中国区域食品文化方面的挑战,以推动细粒度视觉语言理解的发展。
提供机构:
哥本哈根大学计算机科学系
创建时间:
2024-06-17
AI搜集汇总
数据集介绍
main_image_url
构建方式
FoodieQA数据集的构建过程体现了对中华饮食文化多样性的深度挖掘。研究团队通过五个严谨阶段完成数据采集:首先基于中国八大菜系扩展至14种地域菜系类型,确保地理覆盖的全面性;其次通过社交媒体征集非公开的本地饮食图像,采用严格的质量控制标准,最终筛选出389张具有地域代表性的高质量图像。在标注环节,由来自中国不同省份的八位母语者组成专业团队,通过17个元信息字段对菜品进行多维度标注,涵盖视觉特征、风味特点和烹饪工艺等精细属性。针对视觉问答任务,设计了需多跳推理的跨图像对比问题,并通过双重人工验证机制确保问题质量,最终形成包含403道多图像问答、256道单图像问答和705道纯文本问答的平衡数据集。
特点
该数据集的核心价值在于其精细的文化粒度和多模态特性。地域覆盖上精准捕捉了中国14个饮食文化区的差异化特征,包括新疆、内蒙古等常被忽视的边疆菜系。问题设计突破传统食品识别范畴,聚焦需要文化背景知识的深层推理任务,如通过餐具形制推断菜系归属。多图像对比任务模拟真实点餐场景,要求模型分析视觉线索间的细微差异。数据纯净度方面,所有图像均为首次公开的私人拍摄内容,有效避免预训练数据污染。标注体系创新性地引入'冷热菜判别'等饮食文化特有维度,73.4%的单图像问题需要结合视觉特征与文化知识的多步推理。
使用方法
研究者可通过三种任务范式挖掘该数据集价值:多图像VQA任务要求模型在四张候选图像中完成跨模态对比,适合评估文化语境下的视觉推理能力;单图像VQA任务通过屏蔽菜品名称,强制模型依赖视觉特征回答风味、菜系等专业问题;纯文本QA任务则直接检验模型对饮食文化知识的掌握程度。基准测试表明,提供菜品图像可使IDEFICS2模型准确率提升约40%,建议研究者优先采用多模态输入方式。针对文化偏见分析,数据集支持中英双语评估,其中双语模型在中文环境下表现更优,该特性可用于探究语言对文化认知的影响。对于领域适应研究,可重点考察模型在'烹饪技法'与'风味识别'等子任务上的表现差异。
背景与挑战
背景概述
FoodieQA是由哥本哈根大学、滑铁卢大学等机构的研究团队于2024年推出的多模态数据集,聚焦于中国饮食文化的细粒度理解。该数据集通过手工标注的方式,收录了涵盖中国14个菜系的389张非公开食物图像及对应的多模态问答任务,旨在填补现有饮食文化研究中区域多样性研究的空白。作为首个系统探索中国区域饮食文化差异的计算语言学资源,FoodieQA通过多图像视觉问答、单图像视觉问答和纯文本问答三种任务形式,为评估视觉语言模型的文化理解能力提供了新基准。
当前挑战
FoodieQA面临的核心挑战体现在两个方面:在领域问题层面,现有模型对需要跨图像比较和文化背景推理的多图像视觉问答任务表现欠佳,开源模型准确率较人类水平低41%;在构建过程层面,数据集收集面临区域代表性平衡、非公开图像获取难度大、菜品细粒度特征标注复杂度高等困难。特别是对'冷门'菜系的样本收集,以及确保视觉问题必须依赖图像特征而非文本先验的设计要求,都极大增加了数据集的构建难度。
常用场景
经典使用场景
FoodieQA数据集在跨模态理解领域具有重要价值,尤其在探索中国饮食文化的细粒度特征方面表现突出。该数据集通过多图像视觉问答、单图像视觉问答以及纯文本问答任务,为研究者提供了一个全面评估模型对区域性饮食文化理解能力的平台。在经典使用场景中,研究者可利用该数据集测试模型在比较不同地区菜肴视觉特征、识别单一图像中的饮食文化元素,以及基于文本描述推断饮食文化知识等方面的表现。
实际应用
在实际应用层面,FoodieQA可广泛应用于智能餐饮推荐系统、跨文化饮食教育平台和旅游信息服务等领域。例如,基于该数据集训练的模型能够为游客准确识别地方特色菜肴,解释其文化背景;在商业场景中,可帮助餐饮企业分析不同地区消费者的饮食偏好;还可应用于饮食文化数字化保护,系统记录和传承地方特色饮食知识。
衍生相关工作
FoodieQA的发布推动了多项相关研究的发展,包括跨文化视觉语言理解模型的优化、区域性饮食知识图谱构建等。该数据集启发了后续工作如Culinary-Cultural-Bias-Probing等研究,促使学界更加关注模型中的文化偏见问题。同时,其创新的多图像比较任务设计为视觉推理领域提供了新思路,影响了VALSE等细粒度视觉理解基准的构建方法。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

Materials Project

材料项目是一组标有不同属性的化合物。数据集链接: MP 2018.6.1(69,239 个材料) MP 2019.4.1(133,420 个材料)

OpenDataLab 收录

AgiBot World

为了进一步推动通用具身智能领域研究进展,让高质量机器人数据触手可及,作为上海模塑申城语料普惠计划中的一份子,智元机器人携手上海人工智能实验室、国家地方共建人形机器人创新中心以及上海库帕思,重磅发布全球首个基于全域真实场景、全能硬件平台、全程质量把控的百万真机数据集开源项目 AgiBot World。这一里程碑式的开源项目,旨在构建国际领先的开源技术底座,标志着具身智能领域 「ImageNet 时刻」已到来。AgiBot World 是全球首个基于全域真实场景、全能硬件平台、全程质量把控的大规模机器人数据集。相比于 Google 开源的 Open X-Embodiment 数据集,AgiBot World 的长程数据规模高出 10 倍,场景范围覆盖面扩大 100 倍,数据质量从实验室级上升到工业级标准。AgiBot World 数据集收录了八十余种日常生活中的多样化技能,从抓取、放置、推、拉等基础操作,到搅拌、折叠、熨烫等精细长程、双臂协同复杂交互,几乎涵盖了日常生活所需的绝大多数动作需求。

github 收录

FER2013

FER2013数据集是一个广泛用于面部表情识别领域的数据集,包含28,709个训练样本和7,178个测试样本。图像属性为48x48像素,标签包括愤怒、厌恶、恐惧、快乐、悲伤、惊讶和中性。

github 收录

FAOSTAT Agricultural Data

FAOSTAT Agricultural Data 是由联合国粮食及农业组织(FAO)提供的全球农业数据集。该数据集涵盖了农业生产、贸易、价格、土地利用、水资源、气候变化、人口统计等多个方面的详细信息。数据包括了全球各个国家和地区的农业统计数据,旨在为政策制定者、研究人员和公众提供全面的农业信息。

www.fao.org 收录

Figshare

Figshare是一个在线数据共享平台,允许研究人员上传和共享各种类型的研究成果,包括数据集、论文、图像、视频等。它旨在促进科学研究的开放性和可重复性。

figshare.com 收录