five

SPA-BENCH|智能手机代理数据集|自动化任务数据集

收藏
arXiv2024-10-20 更新2024-10-24 收录
智能手机代理
自动化任务
下载链接:
http://arxiv.org/abs/2410.15164v1
下载链接
链接失效反馈
资源简介:
SPA-BENCH是由华为诺亚方舟实验室和哈尔滨工业大学(深圳)联合创建的智能手机代理评估基准数据集。该数据集包含340个任务,涵盖系统应用和第三方应用,支持中英文双语,旨在评估基于大型语言模型(LLM)和多模态大型语言模型(MLLM)的智能手机代理在真实交互环境中的表现。数据集创建过程中,通过人工标注和验证确保任务质量,涵盖单应用和跨应用任务,难度级别从简单到复杂。SPA-BENCH的应用领域主要集中在智能手机控制和自动化任务,旨在解决智能手机代理在实际应用中的性能评估问题。
提供机构:
华为诺亚方舟实验室, 哈尔滨工业大学(深圳), 伦敦大学学院
创建时间:
2024-10-20
AI搜集汇总
数据集介绍
main_image_url
构建方式
SPA-BENCH 数据集通过模拟真实世界条件下的智能手机交互环境,构建了一个全面的智能手机代理评估基准。该数据集包括涵盖系统应用和第三方应用的多样化任务,涵盖英语和中文两种语言。任务设计侧重于日常使用中的常见功能,确保评估的广泛性和实用性。数据集的构建过程包括任务选择、任务描述、人类执行轨迹记录以及最终状态的关键组件标注,确保任务质量和可重复性。
特点
SPA-BENCH 数据集的显著特点在于其任务的多样性和复杂性,涵盖了单应用任务和跨应用任务,以及不同难度级别的任务。此外,数据集支持多种语言,包括英语和中文,增加了评估的全面性。数据集还提供了一个即插即用的框架,支持实时代理与 Android 设备的交互,并集成了超过十个代理,便于新代理的集成和测试。
使用方法
SPA-BENCH 数据集的使用方法包括将代理集成到框架中,通过自动化评估管道评估代理在多个维度上的性能。评估管道自动评估代理的任务完成情况和资源消耗情况,涵盖七个与任务完成和资源消耗相关的指标。研究人员可以通过该数据集对不同代理进行公平比较,识别代理的优缺点,并指导未来智能手机代理的研究方向。
背景与挑战
背景概述
SPA-BENCH, introduced in 2024, is a comprehensive benchmark designed to evaluate smartphone agents, particularly those based on Multimodal Large Language Models (MLLMs). Developed by researchers from Huawei Noah’s Ark Lab, Harbin Institute of Technology, Shenzhen, and University College London, SPA-BENCH addresses the critical need for fair and accurate comparison of smartphone agents in real-world interactive environments. The benchmark encompasses a diverse set of tasks across system and third-party apps in both English and Chinese, focusing on daily routine features. It integrates over ten agents and employs a novel evaluation pipeline to assess performance across multiple dimensions, including task completion and resource consumption. SPA-BENCH aims to provide a robust framework for evaluating the strengths and weaknesses of smartphone agents, thereby guiding future research and development in this rapidly evolving field.
当前挑战
SPA-BENCH faces several significant challenges. Firstly, the evaluation of smartphone agents is inherently complex due to the varied task scope and the need for integration with different agent implementations. Secondly, the benchmark must simulate real-world conditions, which introduces challenges such as interpreting mobile user interfaces, grounding actions accurately, retaining memory across tasks, and managing execution costs. Additionally, the benchmark must address limitations in current research, such as the focus on system and Google suite applications in English, the limited number of evaluated agents, and the reliance on human intervention for success detection. SPA-BENCH aims to overcome these challenges by providing a diverse task collection, a plug-and-play framework for agent interaction, and an automated evaluation pipeline that reduces the need for handcrafted validation logic and supports a wider range of apps and tasks.
常用场景
经典使用场景
SPA-BENCH 数据集的经典使用场景在于评估基于多模态大语言模型(MLLM)的智能手机代理在模拟真实世界条件下的交互环境中的性能。该数据集通过提供多样化的任务集合,涵盖系统应用和第三方应用,以及中英文双语环境,支持对智能手机代理的多维度评估。这些任务聚焦于日常使用中的常见功能,如预订酒店、设置闹钟等,从而能够全面评估代理在不同任务完成度和资源消耗方面的表现。
衍生相关工作
SPA-BENCH 数据集的发布催生了一系列相关的经典工作。首先,基于该数据集的研究揭示了多模态大语言模型在智能手机控制中的潜力和局限性,推动了相关模型的进一步优化和创新。其次,SPA-BENCH 促进了自动化评估方法的发展,特别是在减少人工干预和提高评估效率方面。此外,该数据集还激发了对智能手机代理在多语言环境下的适应性和性能的研究,推动了跨语言智能代理的发展。最后,SPA-BENCH 的成功应用也为其他领域的智能代理评估提供了参考和借鉴。
数据集最近研究
最新研究方向
在智能手机代理领域,SPA-BENCH数据集的最新研究方向主要集中在提升多模态大语言模型(MLLM)在实际交互环境中的评估和应用。研究者们致力于开发一个综合性的基准测试,以评估基于MLLM的智能手机代理在模拟真实世界条件下的表现。该研究方向包括设计多样化的任务集合,涵盖系统应用和第三方应用,以及开发一个即插即用的框架,支持实时代理与Android设备的交互。此外,研究还涉及构建一个自动化的评估管道,通过多维度指标来评估代理的性能,包括任务完成度和资源消耗。通过这些研究,旨在解决当前智能手机代理在解释移动用户界面、动作接地、记忆保留和执行成本等方面的挑战,推动智能手机代理在实际应用中的发展。
相关研究论文
  • 1
    SPA-Bench: A Comprehensive Benchmark for SmartPhone Agent Evaluation华为诺亚方舟实验室, 哈尔滨工业大学(深圳), 伦敦大学学院 · 2024年
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

13_Gitovu.rar

:unav

DataCite Commons 收录

高质量多领域客服对话数据集

高质量多领域客服对话数据集,包含了电子商务、金融服务、电信支持等多个领域,包含丰富的问答对。旨在提供多样化的客户服务场景下的自然语言交互样本。高质量多领域客服对话数据集在大模型领域的应用能够解决以下几个关键问题: 1)聊天机器人训练:通过使用丰富的对话数据,可以训练出更加自然、流畅且能理解复杂用户意图的聊天机器人。 2)智能客服助手:能够提升客服系统的自动化水平,有效解答常见问题,减少人工客服的工作负担,提高服务效率和客户满意度。 3)多轮对话系统开发:支持构建能够进行连贯、上下文相关的多轮对话系统,使得机器能够在对话中保持话题一致性,提供更个性化的交互体验。 4)智能推荐系统:利用对话数据中的用户偏好和行为模式,改进推荐算法,实现更精准的内容和服务推荐。 5)知识库构建:有助于自动或半自动地构建和维护企业或特定领域的知识图谱,为用户提供准确的信息查询服务。 6)语言模型预训练:可以作为预训练数据,帮助语言模型学习多样化的语言结构和表达方式,增强模型的语言理解和生成能力。

北京市数据知识产权 收录

WordNet

WordNet 3.0 and Information Content

kaggle 收录

中国区域地面气象要素驱动数据集 v2.0(1951-2020)

中国区域地面气象要素驱动数据集(China Meteorological Forcing Data,以下简称 CMFD)是为支撑中国区域陆面、水文、生态等领域研究而研发的一套高精度、高分辨率、长时间序列数据产品。本页面发布的 CMFD 2.0 包含了近地面气温、气压、比湿、全风速、向下短波辐射通量、向下长波辐射通量、降水率等气象要素,时间分辨率为 3 小时,水平空间分辨率为 0.1°,时间长度为 70 年(1951~2020 年),覆盖了 70°E~140°E,15°N~55°N 空间范围内的陆地区域。CMFD 2.0 融合了欧洲中期天气预报中心 ERA5 再分析数据与气象台站观测数据,并在辐射、降水数据产品中集成了采用人工智能技术制作的 ISCCP-ITP-CNN 和 TPHiPr 数据产品,其数据精度较 CMFD 的上一代产品有显著提升。 CMFD 历经十余年的发展,其间发布了多个重要版本。2019 年发布的 CMFD 1.6 是完全采用传统数据融合技术制作的最后一个 CMFD 版本,而本次发布的 CMFD 2.0 则是 CMFD 转向人工智能技术制作的首个版本。此版本与 1.6 版具有相同的时空分辨率和基础变量集,但在其它诸多方面存在大幅改进。除集成了采用人工智能技术制作的辐射和降水数据外,在制作 CMFD 2.0 的过程中,研发团队尽可能采用单一来源的再分析数据作为输入并引入气象台站迁址信息,显著缓解了 CMFD 1.6 中因多源数据拼接和气象台站迁址而产生的虚假气候突变。同时,CMFD 2.0 数据的时间长度从 CMFD 1.6 的 40 年大幅扩展到了 70 年,并将继续向后延伸。CMFD 2.0 的网格空间范围虽然与 CMFD 1.6 相同,但其有效数据扩展到了中国之外,能够更好地支持跨境区域研究。为方便用户使用,CMFD 2.0 还在基础变量集之外提供了若干衍生变量,包括近地面相对湿度、雨雪分离降水产品等。此外,CMFD 2.0 摒弃了 CMFD 1.6 中通过 scale_factor 和 add_offset 参数将实型数据化为整型数据的压缩技术,转而直接将实型数据压缩存储于 NetCDF4 格式文件中,从而消除了用户使用数据时进行解压换算的困扰。 本数据集原定版本号为 1.7,但鉴于本数据集从输入数据到研制技术都较上一代数据产品有了大幅的改变,故将其版本号重新定义为 2.0。CMFD 2.0 的数据内容与此前宣传的 CMFD 1.7 基本一致,仅对 1983 年 7 月以后的向下短/长波辐射通量数据进行了更新,以修正其长期趋势存在的问题。2021 年至 2024 年的 CMFD 数据正在制作中,计划于 2025 年上半年发布,从而使 CMFD 2.0 延伸至 2024 年底。

国家青藏高原科学数据中心 收录

Asteroids by the Minor Planet Center

包含所有已知小行星的轨道数据和观测数据。数据来源于Minor Planet Center,格式包括Fortran (.DAT)和JSON,数据集大小为81MB(压缩)和450MB(未压缩),记录数约750,000条,每日更新。

github 收录