five

mHumanEval|代码生成数据集|多语言评估数据集

收藏
arXiv2024-10-19 更新2024-10-23 收录
代码生成
多语言评估
下载链接:
https://github.com/mraihan-gmu/mHumanEval
下载链接
链接失效反馈
资源简介:
mHumanEval是由乔治梅森大学开发的用于评估大型语言模型代码生成能力的多语言基准数据集。该数据集包含33,456个编程提示,涵盖204种自然语言和25种编程语言,旨在解决现有基准在任务多样性、测试覆盖率和语言范围方面的局限性。数据集通过机器翻译和专家人工翻译相结合的方式创建,确保了翻译质量。mHumanEval的应用领域主要集中在评估和提升多语言环境下的代码生成模型性能,特别是在低资源语言环境中的表现。
提供机构:
乔治梅森大学
创建时间:
2024-10-19
AI搜集汇总
数据集介绍
main_image_url
构建方式
mHumanEval数据集的构建基于OpenAI的HumanEval基准,通过扩展其任务多样性、测试覆盖范围和语言范围来解决现有代码生成基准的局限性。该数据集支持超过200种自然语言的提示,并采用成熟的机器翻译方法进行编译,同时结合质量保证流程。此外,还提供了15种不同自然语言的专家人工翻译。通过这些步骤,mHumanEval确保了在多语言代码生成任务中的广泛适用性和高质量标准。
特点
mHumanEval数据集的主要特点在于其广泛的多语言支持,涵盖了从高资源到低资源的204种自然语言,并包括25种编程语言的规范解决方案。此外,数据集还包含了15种语言的专家人工翻译,确保了翻译质量的高标准。通过多模型翻译策略和质量评估方法,mHumanEval提供了全面且高质量的多语言代码生成基准。
使用方法
使用mHumanEval数据集时,研究者和开发者可以通过提供的API或直接下载数据集进行模型评估和训练。数据集提供了多种子集和变体,便于进行初步评估和详细研究。用户可以根据需要选择特定的自然语言和编程语言组合,进行针对性的模型测试和优化。此外,数据集还支持多种评估指标,如Pass@1,以全面评估模型在多语言代码生成任务中的表现。
背景与挑战
背景概述
mHumanEval数据集由Nishat Raihan、Antonios Anastasopoulos和Marcos Zampieri等研究人员在George Mason University开发,旨在评估大型语言模型在代码生成任务中的多语言能力。该数据集创建于近期,针对现有代码生成基准(如OpenAI的HumanEval)在任务多样性、测试覆盖率和语言范围方面的局限性,提供了超过200种自然语言的编程提示。mHumanEval不仅扩展了编程语言的多样性,还通过专家人工翻译确保了低资源语言的代码生成质量,从而为跨语言代码生成能力的评估提供了全面的基准。
当前挑战
mHumanEval数据集面临的挑战主要集中在多语言代码生成的复杂性和构建过程中的质量控制。首先,不同语言的编程提示需要确保其语义和上下文的准确性,这对于低资源语言尤为困难。其次,现有的机器翻译方法在处理编程相关的术语和上下文时存在局限,导致翻译质量参差不齐。此外,评估模型在多语言环境下的性能时,需要考虑语言资源的丰富程度,这增加了模型性能评估的复杂性。最后,构建和维护一个包含204种语言和25种编程语言的基准数据集,其数据量和多样性对数据管理和处理技术提出了高要求。
常用场景
经典使用场景
mHumanEval数据集的经典使用场景在于评估大型语言模型(LLMs)在多语言代码生成任务中的表现。通过提供超过200种自然语言的编程提示,该数据集能够全面测试模型在不同语言环境下的代码生成能力,从而揭示其在跨语言代码生成任务中的强项与不足。
衍生相关工作
mHumanEval数据集的推出激发了一系列相关研究工作,包括对现有LLMs在多语言代码生成任务中的性能分析、新模型的设计和优化,以及跨语言代码生成技术的理论探讨。此外,该数据集还促进了机器翻译质量评估方法的发展,特别是在编程提示翻译领域的应用。
数据集最近研究
最新研究方向
在代码生成领域,mHumanEval数据集的最新研究方向主要集中在多语言环境下的代码生成能力评估。随着大型语言模型(LLMs)在自然语言处理中的广泛应用,研究人员致力于解决当前代码生成基准在任务多样性、测试覆盖率和语言范围方面的局限性。mHumanEval通过支持超过200种自然语言的提示,扩展了现有基准的覆盖范围,并提供了专家人工翻译,以确保翻译质量。该数据集不仅评估了现有最先进代码生成模型的多语言能力,还为跨语言代码生成的研究提供了新的视角和挑战。通过mHumanEval,研究人员可以更全面地理解LLMs在不同语言环境下的表现,从而推动多语言代码生成技术的发展。
相关研究论文
  • 1
    mHumanEval -- A Multilingual Benchmark to Evaluate Large Language Models for Code Generation乔治梅森大学 · 2024年
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

GME Data

关于2021年GameStop股票活动的数据,包括每日合并的GME短期成交量数据、每日失败交付数据、可借股数、期权链数据以及不同时间框架的开盘/最高/最低/收盘/成交量条形图。

github 收录

默沙东诊疗手册专业版

默沙东诊疗手册专业版

魔搭社区 收录

网易云音乐数据集

该数据集包含了网易云音乐平台上的歌手信息、歌曲信息和歌单信息,数据通过爬虫技术获取并整理成CSV格式,用于音乐数据挖掘和推荐系统构建。

github 收录

FER2013

FER2013数据集是一个广泛用于面部表情识别领域的数据集,包含28,709个训练样本和7,178个测试样本。图像属性为48x48像素,标签包括愤怒、厌恶、恐惧、快乐、悲伤、惊讶和中性。

github 收录

中国区域地面气象要素驱动数据集 v2.0(1951-2020)

中国区域地面气象要素驱动数据集(China Meteorological Forcing Data,以下简称 CMFD)是为支撑中国区域陆面、水文、生态等领域研究而研发的一套高精度、高分辨率、长时间序列数据产品。本页面发布的 CMFD 2.0 包含了近地面气温、气压、比湿、全风速、向下短波辐射通量、向下长波辐射通量、降水率等气象要素,时间分辨率为 3 小时,水平空间分辨率为 0.1°,时间长度为 70 年(1951~2020 年),覆盖了 70°E~140°E,15°N~55°N 空间范围内的陆地区域。CMFD 2.0 融合了欧洲中期天气预报中心 ERA5 再分析数据与气象台站观测数据,并在辐射、降水数据产品中集成了采用人工智能技术制作的 ISCCP-ITP-CNN 和 TPHiPr 数据产品,其数据精度较 CMFD 的上一代产品有显著提升。 CMFD 历经十余年的发展,其间发布了多个重要版本。2019 年发布的 CMFD 1.6 是完全采用传统数据融合技术制作的最后一个 CMFD 版本,而本次发布的 CMFD 2.0 则是 CMFD 转向人工智能技术制作的首个版本。此版本与 1.6 版具有相同的时空分辨率和基础变量集,但在其它诸多方面存在大幅改进。除集成了采用人工智能技术制作的辐射和降水数据外,在制作 CMFD 2.0 的过程中,研发团队尽可能采用单一来源的再分析数据作为输入并引入气象台站迁址信息,显著缓解了 CMFD 1.6 中因多源数据拼接和气象台站迁址而产生的虚假气候突变。同时,CMFD 2.0 数据的时间长度从 CMFD 1.6 的 40 年大幅扩展到了 70 年,并将继续向后延伸。CMFD 2.0 的网格空间范围虽然与 CMFD 1.6 相同,但其有效数据扩展到了中国之外,能够更好地支持跨境区域研究。为方便用户使用,CMFD 2.0 还在基础变量集之外提供了若干衍生变量,包括近地面相对湿度、雨雪分离降水产品等。此外,CMFD 2.0 摒弃了 CMFD 1.6 中通过 scale_factor 和 add_offset 参数将实型数据化为整型数据的压缩技术,转而直接将实型数据压缩存储于 NetCDF4 格式文件中,从而消除了用户使用数据时进行解压换算的困扰。 本数据集原定版本号为 1.7,但鉴于本数据集从输入数据到研制技术都较上一代数据产品有了大幅的改变,故将其版本号重新定义为 2.0。CMFD 2.0 的数据内容与此前宣传的 CMFD 1.7 基本一致,仅对 1983 年 7 月以后的向下短/长波辐射通量数据进行了更新,以修正其长期趋势存在的问题。2021 年至 2024 年的 CMFD 数据正在制作中,计划于 2025 年上半年发布,从而使 CMFD 2.0 延伸至 2024 年底。

国家青藏高原科学数据中心 收录