five

HumanEval|软件工程数据集|代码生成评估数据集

收藏
arXiv2025-03-08 更新2025-03-12 收录
软件工程
代码生成评估
下载链接:
https://huggingface.co/datasets/openai/openai_humaneval
下载链接
链接失效反馈
资源简介:
HumanEval是由代尔夫特理工大学的研究团队创建的软件工程领域AI基准数据集。该数据集主要用于评估大型语言模型在代码生成任务上的性能,包含多个子任务,如代码修复和代码解释。尽管有多个版本尝试扩展语言支持或改善测试覆盖范围,但原始数据集中的错误和不足仍未得到彻底解决。该数据集在AI和软件工程社区中广受欢迎,但存在测试不正确、测试覆盖不足、解决方案错误和问题描述不明确等问题。
提供机构:
代尔夫特理工大学
创建时间:
2025-03-08
AI搜集汇总
数据集介绍
main_image_url
构建方式
HumanEval数据集的构建方式主要涉及对现有编程任务进行标准化处理,并创建相应的测试用例和参考解决方案。为了构建HumanEval数据集,研究人员首先从公开的编程任务中收集了一系列问题,然后为这些问题编写了自动化的测试用例。这些测试用例旨在验证生成的代码是否满足问题要求,并能够正确处理各种边缘情况。为了确保测试的准确性和全面性,研究人员对测试用例进行了多次迭代和优化,并引入了类型注解和边界分析等高级测试技术。此外,为了提高数据集的实用性,研究人员还增加了对多种编程语言的支持,并提供了清晰的文档和问题描述,以便研究人员能够更好地理解每个问题的背景和要求。
特点
HumanEval数据集的特点在于其广泛的应用和高度的实用性。作为一个广泛使用的基准数据集,HumanEval已经被用于评估许多著名的代码生成模型,如Codex、Gemini和GPT-4。此外,HumanEval数据集还提供了多种语言的版本,包括Python、Java、C++等,这使得它能够被不同背景的研究人员和开发人员使用。然而,尽管HumanEval数据集具有广泛的应用和高度的实用性,但它也存在一些局限性。例如,HumanEval数据集的测试用例中存在一些错误和不足,这些问题可能会导致模型性能的评估不准确。此外,HumanEval数据集的问题描述也存在一些模糊和歧义,这可能会影响模型的正确性和可靠性。
使用方法
使用HumanEval数据集时,研究人员首先需要下载并安装相应的代码库和测试用例。然后,他们可以使用数据集中的问题来评估他们的模型,并使用测试用例来验证模型的性能。为了确保测试的准确性和全面性,研究人员需要仔细阅读问题描述和测试用例,并根据需要对其进行修改和优化。此外,研究人员还可以使用数据集中的类型注解和边界分析等技术来提高测试的准确性和全面性。在使用HumanEval数据集时,研究人员还需要注意数据集的局限性和潜在问题,并根据需要对其进行修改和优化。例如,研究人员可以使用更严格的测试用例来评估模型的性能,或者使用更清晰的问题描述来提高模型的可靠性。
背景与挑战
背景概述
在软件工程领域,人工智能(AI)的集成催生了众多用于代码生成和错误修复等任务的基准数据集。然而,这种增长也带来了挑战,包括任务之间基准知识的分散、选择相关基准的困难、缺乏基准开发的统一标准以及现有基准的局限性。为了解决这些问题,Koohestani等人(2025)进行了一项系统性的综述,审查了173项研究并确定了204个AI4SE基准。他们创建了一个名为BenchScout的语义搜索工具,用于查找相关基准,并提出了BenchFrame,这是一个统一的框架,旨在提高现有和新基准的质量。作为案例研究,他们将BenchFrame应用于HumanEval基准,并解决了其主要的局限性,从而创建了HumanEvalNext。这项工作对AI4SE基准的景观进行了全面的概述,并揭示了现有基准的局限性和实践中的差距。
当前挑战
HumanEval基准存在多个问题,包括错误的测试、缺乏适当的测试覆盖率、错误的规范解决方案和模糊的问题定义。此外,尽管有扩展语言支持和改进测试覆盖率的版本,但这些扩展通常是在原始数据集的基础上构建的,没有解决其基本缺陷。为了解决这些问题,研究人员创建了BenchScout,这是一个语义搜索工具,用于有效地识别相关基准。此外,他们提出了BenchFrame,这是一个统一的框架,用于提高现有和新基准的质量。通过在HumanEval上应用BenchFrame,他们创建了HumanEvalNext,该版本具有修正的错误、改进的语言转换、扩展的测试覆盖率和增加的难度。在HumanEvalNext上评估的模型显示,与HumanEval和HumanEvalPlus相比,pass@1分数分别降低了31.22%和19.94%。这些结果表明,需要不断改进基准,以更好地指导未来的研究并提供对模型性能的更现实的评估。
常用场景
经典使用场景
HumanEval作为软件工程领域中的AI模型评估基准,主要用于评估大型语言模型(LLM)在代码生成任务上的性能。它为AI模型提供了标准化的性能指标,并促进了研究的可重复性。HumanEval被广泛用于评估如Codex、Gemini和GPT-4等知名代码感知模型的性能。然而,尽管其广泛采用,HumanEval存在众多缺陷和一致性差的问题,例如错误的测试和错误的规范解决方案,这可能导致数据污染和基准过拟合,从而人为地夸大性能分数。
解决学术问题
HumanEval的改进版本HumanEvalNext解决了原始数据集中存在的错误,包括错误的测试、错误的规范解决方案和不精确的问题定义。此外,HumanEvalNext还改进了语言转换,扩展了测试覆盖率,并提高了难度。这些改进使得HumanEvalNext成为一个更加可靠的基准,可以更准确地评估AI模型的性能。HumanEvalNext的引入对AI模型评估领域具有重要意义,它揭示了现有模型的性能差距,并为未来的研究和开发提供了更真实的评估。
衍生相关工作
HumanEval的改进版本HumanEvalNext是相关研究中的一项经典工作。它解决了原始HumanEval数据集中存在的错误和缺陷,并通过改进语言转换、测试覆盖率和难度来提高基准的质量。HumanEvalNext的引入对AI模型评估领域具有重要意义,它揭示了现有模型的性能差距,并为未来的研究和开发提供了更真实的评估。此外,HumanEvalNext还为其他AI模型评估基准的改进提供了参考和指导。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

OECD - Education at a Glance

该数据集提供了关于教育系统在不同国家和地区的详细统计数据,包括教育支出、教育参与率、教育成果、教师资源等多个方面。数据涵盖了OECD成员国以及部分非成员国。

www.oecd.org 收录

中国交通事故深度调查(CIDAS)数据集

交通事故深度调查数据通过采用科学系统方法现场调查中国道路上实际发生交通事故相关的道路环境、道路交通行为、车辆损坏、人员损伤信息,以探究碰撞事故中车损和人伤机理。目前已积累深度调查事故10000余例,单个案例信息包含人、车 、路和环境多维信息组成的3000多个字段。该数据集可作为深入分析中国道路交通事故工况特征,探索事故预防和损伤防护措施的关键数据源,为制定汽车安全法规和标准、完善汽车测评试验规程、

北方大数据交易中心 收录

THUCNews

THUCNews是根据新浪新闻RSS订阅频道2005~2011年间的历史数据筛选过滤生成,包含74万篇新闻文档(2.19 GB),均为UTF-8纯文本格式。本次比赛数据集在原始新浪新闻分类体系的基础上,重新整合划分出14个候选分类类别:财经、彩票、房产、股票、家居、教育、科技、社会、时尚、时政、体育、星座、游戏、娱乐。提供训练数据共832471条。

github 收录

AgiBot World

为了进一步推动通用具身智能领域研究进展,让高质量机器人数据触手可及,作为上海模塑申城语料普惠计划中的一份子,智元机器人携手上海人工智能实验室、国家地方共建人形机器人创新中心以及上海库帕思,重磅发布全球首个基于全域真实场景、全能硬件平台、全程质量把控的百万真机数据集开源项目 AgiBot World。这一里程碑式的开源项目,旨在构建国际领先的开源技术底座,标志着具身智能领域 「ImageNet 时刻」已到来。AgiBot World 是全球首个基于全域真实场景、全能硬件平台、全程质量把控的大规模机器人数据集。相比于 Google 开源的 Open X-Embodiment 数据集,AgiBot World 的长程数据规模高出 10 倍,场景范围覆盖面扩大 100 倍,数据质量从实验室级上升到工业级标准。AgiBot World 数据集收录了八十余种日常生活中的多样化技能,从抓取、放置、推、拉等基础操作,到搅拌、折叠、熨烫等精细长程、双臂协同复杂交互,几乎涵盖了日常生活所需的绝大多数动作需求。

github 收录

Nexdata/chinese_dialect

该数据集包含25,000小时的中文方言语音数据,收集自多个方言区域的本地方言使用者,涵盖闽南语、粤语、四川话、河南话、东北话、上海话、维吾尔语和藏语等。数据格式为16kHz、16bit、未压缩的wav文件,单声道。句子准确率超过95%。数据集支持的任务包括自动语音识别(ASR)和音频说话人识别。

hugging_face 收录