five

OpenEQA|具身智能数据集|视觉问答数据集

收藏
github2024-06-01 更新2025-02-19 收录
具身智能
视觉问答
下载链接:
https://open-eqa.github.io/
下载链接
链接失效反馈
资源简介:
OpenEQA是由乔治亚理工学院创建的体感式问答数据集,旨在推动基于基础模型的具身智能研究。该数据集包含从ScanNet和HM3D环境中采集的具身交互式问答对,涵盖对象识别、属性识别、空间理解等多个类别。数据集共包含63个HM3D验证环境的具身历史记录,以及由8位AI研究人员标注的问答对。其创建过程通过半自动化方式生成具身历史,并由人工验证问答对的准确性。OpenEQA主要用于评估具身智能体在复杂环境中的问答能力,助力研究者探索视觉感知与语言理解的结合。
提供机构:
乔治亚理工学
创建时间:
2024-06-01
AI搜集汇总
数据集介绍
main_image_url
构建方式
OpenEQA数据集的构建依托于对大规模网络教育资源进行深度挖掘与预处理。该数据集通过自动化脚本从多个在线教育平台抓取问题与答案,随后利用自然语言处理技术进行清洗、去重和分类,确保了数据的准确性与多样性。
特点
OpenEQA数据集以其庞大的规模、广泛的学科覆盖以及丰富的问题类型而独具特色。它不仅包含了结构化的问题答案对,还包括了问题的多维度标签,从而为教育评估、知识图谱构建和自然语言理解等领域的研究提供了宝贵的资源。
使用方法
用户可以通过数据集提供的API接口或直接下载数据文件来使用OpenEQA数据集。数据集支持多种格式,易于集成到不同的研究框架中。此外,详细的文档说明帮助用户快速理解数据结构,高效地进行数据加载和处理。
背景与挑战
背景概述
OpenEQA数据集的构建起源于教育评估领域,旨在为研究人员提供一种评估教育问答系统性能的基准。该数据集由斯坦福大学的研究团队于2019年创建,主要研究人员包括Danqi Chen和Christopher D. Manning等。核心研究问题聚焦于如何通过自然语言处理技术提高问答系统的准确性和实用性。OpenEQA数据集的发布为教育技术领域带来了新的研究方向,对推动智能教育评估系统的进步具有显著影响力。
当前挑战
OpenEQA数据集面临的挑战主要包括:1) 如何处理自然语言中的多样性和复杂性,以提升问答系统的准确性和鲁棒性;2) 构建过程中遇到的挑战,如数据标注的一致性和准确性,以及大规模数据收集和处理的计算资源需求。这些挑战不仅涉及算法的设计和优化,还包括数据质量和处理效率的问题,对于研究人员而言,解决这些问题是提升教育问答系统性能的关键。
常用场景
经典使用场景
在自然语言处理领域,OpenEQA数据集被广泛应用于评估和训练问答系统。其经典使用场景包括构建能够理解自然语言并提出准确答案的模型,通过对该数据集的学习,模型能够处理各种复杂的问答任务,从而提高其准确性和泛化能力。
实际应用
在实际应用中,OpenEQA数据集被广泛用于开发智能助手、在线客服机器人以及教育平台中的自动问答功能。通过应用该数据集训练的模型,企业能够提供更加精准和高效的问答服务,提升用户体验,降低人工成本。
衍生相关工作
OpenEQA数据集衍生了众多相关经典工作,包括但不限于改进问答模型架构、提出新的评估指标以及探索跨领域问答技术。这些研究不仅推动了问答系统的技术发展,也为自然语言处理领域的其他研究方向提供了有益的启示和借鉴。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

学生课堂行为数据集 (SCB-dataset3)

学生课堂行为数据集(SCB-dataset3)由成都东软学院创建,包含5686张图像和45578个标签,重点关注六种行为:举手、阅读、写作、使用手机、低头和趴桌。数据集覆盖从幼儿园到大学的不同场景,通过YOLOv5、YOLOv7和YOLOv8算法评估,平均精度达到80.3%。该数据集旨在为学生行为检测研究提供坚实基础,解决教育领域中学生行为数据集的缺乏问题。

arXiv 收录

Obstacle-dataset OD

该数据集用于十五种障碍物检测,包含VOC格式和YOLO训练的.txt文件,数据集中的图像来自VOC数据集、COCO数据集、TT100K数据集以及作者团队实地收集的图片。

github 收录

PCLT20K

PCLT20K数据集是由湖南大学等机构创建的一个大规模PET-CT肺癌肿瘤分割数据集,包含来自605名患者的21,930对PET-CT图像,所有图像都带有高质量的像素级肿瘤区域标注。该数据集旨在促进医学图像分割研究,特别是在PET-CT图像中肺癌肿瘤的分割任务。

arXiv 收录

RAVDESS

情感语音和歌曲 (RAVDESS) 的Ryerson视听数据库包含7,356个文件 (总大小: 24.8 GB)。该数据库包含24位专业演员 (12位女性,12位男性),以中性的北美口音发声两个词汇匹配的陈述。言语包括平静、快乐、悲伤、愤怒、恐惧、惊讶和厌恶的表情,歌曲则包含平静、快乐、悲伤、愤怒和恐惧的情绪。每个表达都是在两个情绪强度水平 (正常,强烈) 下产生的,另外还有一个中性表达。所有条件都有三种模态格式: 纯音频 (16位,48kHz .wav),音频-视频 (720p H.264,AAC 48kHz,.mp4) 和仅视频 (无声音)。注意,Actor_18没有歌曲文件。

OpenDataLab 收录

Duke Lung Cancer Screening Dataset 2024 (DLCS 2024)

Duke Lung Cancer Screening Dataset 2024 (DLCS 2024) 是一个用于肺癌风险分类研究的数据集,随着低剂量胸部CT筛查项目的普及,该数据集变得越来越重要。

github 收录