five

AI4Sec/cti-bench|网络威胁情报数据集|大型语言模型评估数据集

收藏
hugging_face2024-06-13 更新2024-06-22 收录
网络威胁情报
大型语言模型评估
下载链接:
https://hf-mirror.com/datasets/AI4Sec/cti-bench
下载链接
链接失效反馈
资源简介:
CTIBench是一套全面的基准任务和数据集,旨在评估大型语言模型(LLMs)在网络安全威胁情报(CTI)领域的表现。数据集包含多个任务,如多项选择题(CTI-MCQ)、漏洞分类(CTI-RCM)、漏洞评分(CTI-VSP)和威胁报告分析(CTI-TAA)等。每个任务对应一个TSV文件,文件包含提问和正确答案。数据集由Md Tanvirul Alam和Dipkamal Bhusal整理,数据来源包括NIST、MITRE和GDPR等权威标准。

CTIBench是一套全面的基准任务和数据集,旨在评估大型语言模型(LLMs)在网络安全威胁情报(CTI)领域的表现。数据集包含多个任务,如多项选择题(CTI-MCQ)、漏洞分类(CTI-RCM)、漏洞评分(CTI-VSP)和威胁报告分析(CTI-TAA)等。每个任务对应一个TSV文件,文件包含提问和正确答案。数据集由Md Tanvirul Alam和Dipkamal Bhusal整理,数据来源包括NIST、MITRE和GDPR等权威标准。
提供机构:
AI4Sec
原始信息汇总

数据集卡片 CTIBench

数据集概述

CTIBench 是一套用于评估大型语言模型(LLMs)在网络威胁情报(CTI)任务上的基准任务和数据集。

数据集详情

数据集描述

CTIBench 是一个全面的基准任务和数据集套件,旨在评估 LLMs 在 CTI 领域的性能。

组成部分:

  • CTI-MCQ:一个知识评估数据集,包含多项选择题,用于评估 LLMs 对 CTI 标准、威胁、检测策略、缓解计划和最佳实践的理解。该数据集使用权威来源和标准构建,包括 NIST、MITRE 和 GDPR。
  • CTI-RCM:一个实际任务,涉及将常见漏洞和暴露(CVE)描述映射到常见弱点枚举(CWE)类别。该任务评估 LLMs 理解和分类网络威胁的能力。
  • CTI-VSP:另一个实际任务,要求计算常见漏洞评分系统(CVSS)分数。该任务评估 LLMs 评估网络漏洞严重性的能力。
  • CTI-TAA:一个任务,涉及分析公开的威胁报告并将其归因于特定的威胁行为者或恶意软件家族。该任务测试 LLMs 理解历史网络威胁行为并识别有意义关联的能力。

数据集来源

仓库: https://github.com/xashru/cti-bench

数据集结构

数据集由 5 个 TSV 文件组成,每个文件对应一个不同的任务。每个 TSV 文件包含一个“Prompt”列,用于向 LLM 提出问题。大多数文件还包括一个“GT”列,包含问题的真实答案,除了“cti-taa.tsv”。不同任务的评估脚本可在关联的 GitHub 仓库中找到。

数据集创建

数据集创建理由

该数据集是为了评估 LLMs 理解和分析开源 CTI 各个方面的能力而创建的。

源数据

数据集包括指示数据收集来源的 URL。

个人和敏感信息

数据集不包含任何个人或敏感信息。

引用

论文链接:https://arxiv.org/abs/2406.07599

BibTeX: bibtex @misc{alam2024ctibench, title={CTIBench: A Benchmark for Evaluating LLMs in Cyber Threat Intelligence}, author={Md Tanvirul Alam and Dipkamal Bhushal and Le Nguyen and Nidhi Rastogi}, year={2024}, eprint={2406.07599}, archivePrefix={arXiv}, primaryClass={cs.CR} }

数据集卡片联系

Md Tanvirul Alam (ma8235 @ rit . edu)

AI搜集汇总
数据集介绍
main_image_url
构建方式
CTIBench数据集的构建是基于对大型语言模型在网络安全领域中的理解和分析能力进行评估的需求。该数据集整合了多个子任务,包括多项选择题、映射CVE到CWE的分类任务、CVSS评分计算以及威胁报告分析等,旨在全面评估模型在处理网络威胁情报(CTI)任务上的表现。数据来源于权威的CTI领域标准和资源,如NIST、MITRE和GDPR,经过精心策划和编排,形成了包含5个TSV文件的任务集,每个文件对应一个特定的评估任务。
特点
CTIBench数据集的特点在于其针对性和实用性。它涵盖了CTI领域的多个关键方面,如标准理解、威胁识别、检测策略和缓解计划等,为大型语言模型提供了一个全面的评估框架。数据集不含个人敏感信息,确保了使用过程中的安全性和隐私性。此外,数据集的构建充分考虑了开源CTI的多样性和复杂性,使得评估结果更具参考价值。
使用方法
使用CTIBench数据集时,用户可以根据不同的评估任务选择相应的TSV文件。每个文件中包含用于向LLM提问的“Prompt”列,以及除了“cti-taa.tsv”外都包含有“GT”列,后者提供了问题的基准答案。用户可以利用这些文件来训练、测试和评估模型的性能。相关的评估脚本可在GitHub仓库中找到,便于用户进行自动化评估。
背景与挑战
背景概述
在网络安全领域,语言模型的应用日益广泛,特别是在处理与网络威胁情报(CTI)相关的任务时。CTIBench数据集,由Md Tanvirul Alam和Dipkamal Bhusal于2024年创建,旨在评估大型语言模型在CTI领域的表现。该数据集包括多个子任务,如多项选择题(MCQ)、CVE到CWE的映射、CVSS评分计算以及威胁报告的分析,旨在测试模型对CTI标准的理解、威胁的识别、检测策略和缓解计划的能力。CTIBench的构建参考了NIST、MITRE和GDPR等权威机构和标准,为相关领域的研究提供了重要的基准工具。
当前挑战
CTIBench数据集在构建过程中面临的挑战主要包括:确保数据集的多样性和全面性,以覆盖CTI领域的各个方面;保持数据质量,确保所有数据来源的可靠性和准确性;同时,由于CTI领域的快速发展,数据集的时效性也是一大挑战。在使用该数据集时,研究者需要面对的挑战包括如何有效地利用这些数据来训练和评估语言模型,以及如何处理模型在理解和分类网络威胁方面的局限性。
常用场景
经典使用场景
在人工智能领域,针对大型语言模型(LLM)在网络安全威胁情报(CTI)领域的应用,CTIBench数据集提供了一个全面的基准测试任务集。该数据集的经典使用场景在于,研究者可以利用它来评估LLM对CTI标准的理解能力,以及对威胁、检测策略、缓解计划及最佳实践的应用能力。通过这一系列精心设计的任务,研究者能够深入了解LLM在处理CTI相关任务时的表现和局限性。
实际应用
在实际应用中,CTIBench数据集可被安全分析师和研究人员用于训练和评估LLM,以提高其在识别和处理网络威胁方面的能力。通过利用该数据集,安全工具可以更加智能化地理解和响应网络安全事件,从而提升整个网络安全防御体系的效率和效能。
衍生相关工作
基于CTIBench数据集,学术界和工业界已经衍生出了一系列相关工作。这些研究不仅包括对数据集本身的分析和改进,还扩展到了利用CTIBench进行LLM在CTI领域应用的探索,如构建更精确的威胁情报分析模型、开发自动化的威胁识别和响应系统等,进一步推动了网络安全领域的技术进步。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

RAVDESS

情感语音和歌曲 (RAVDESS) 的Ryerson视听数据库包含7,356个文件 (总大小: 24.8 GB)。该数据库包含24位专业演员 (12位女性,12位男性),以中性的北美口音发声两个词汇匹配的陈述。言语包括平静、快乐、悲伤、愤怒、恐惧、惊讶和厌恶的表情,歌曲则包含平静、快乐、悲伤、愤怒和恐惧的情绪。每个表达都是在两个情绪强度水平 (正常,强烈) 下产生的,另外还有一个中性表达。所有条件都有三种模态格式: 纯音频 (16位,48kHz .wav),音频-视频 (720p H.264,AAC 48kHz,.mp4) 和仅视频 (无声音)。注意,Actor_18没有歌曲文件。

OpenDataLab 收录

TCIA

TCIA(The Cancer Imaging Archive)是一个公开的癌症影像数据集,包含多种癌症类型的医学影像数据,如CT、MRI、PET等。这些数据通常与临床和病理信息相结合,用于癌症研究和临床试验。

www.cancerimagingarchive.net 收录

中国行政区划数据

本项目为中国行政区划数据,包括省级、地级、县级、乡级和村级五级行政区划数据。数据来源于国家统计局,存储格式为sqlite3 db文件,支持直接使用数据库连接工具打开。

github 收录

中国区域地面气象要素驱动数据集 v2.0(1951-2020)

中国区域地面气象要素驱动数据集(China Meteorological Forcing Data,以下简称 CMFD)是为支撑中国区域陆面、水文、生态等领域研究而研发的一套高精度、高分辨率、长时间序列数据产品。本页面发布的 CMFD 2.0 包含了近地面气温、气压、比湿、全风速、向下短波辐射通量、向下长波辐射通量、降水率等气象要素,时间分辨率为 3 小时,水平空间分辨率为 0.1°,时间长度为 70 年(1951~2020 年),覆盖了 70°E~140°E,15°N~55°N 空间范围内的陆地区域。CMFD 2.0 融合了欧洲中期天气预报中心 ERA5 再分析数据与气象台站观测数据,并在辐射、降水数据产品中集成了采用人工智能技术制作的 ISCCP-ITP-CNN 和 TPHiPr 数据产品,其数据精度较 CMFD 的上一代产品有显著提升。 CMFD 历经十余年的发展,其间发布了多个重要版本。2019 年发布的 CMFD 1.6 是完全采用传统数据融合技术制作的最后一个 CMFD 版本,而本次发布的 CMFD 2.0 则是 CMFD 转向人工智能技术制作的首个版本。此版本与 1.6 版具有相同的时空分辨率和基础变量集,但在其它诸多方面存在大幅改进。除集成了采用人工智能技术制作的辐射和降水数据外,在制作 CMFD 2.0 的过程中,研发团队尽可能采用单一来源的再分析数据作为输入并引入气象台站迁址信息,显著缓解了 CMFD 1.6 中因多源数据拼接和气象台站迁址而产生的虚假气候突变。同时,CMFD 2.0 数据的时间长度从 CMFD 1.6 的 40 年大幅扩展到了 70 年,并将继续向后延伸。CMFD 2.0 的网格空间范围虽然与 CMFD 1.6 相同,但其有效数据扩展到了中国之外,能够更好地支持跨境区域研究。为方便用户使用,CMFD 2.0 还在基础变量集之外提供了若干衍生变量,包括近地面相对湿度、雨雪分离降水产品等。此外,CMFD 2.0 摒弃了 CMFD 1.6 中通过 scale_factor 和 add_offset 参数将实型数据化为整型数据的压缩技术,转而直接将实型数据压缩存储于 NetCDF4 格式文件中,从而消除了用户使用数据时进行解压换算的困扰。 本数据集原定版本号为 1.7,但鉴于本数据集从输入数据到研制技术都较上一代数据产品有了大幅的改变,故将其版本号重新定义为 2.0。CMFD 2.0 的数据内容与此前宣传的 CMFD 1.7 基本一致,仅对 1983 年 7 月以后的向下短/长波辐射通量数据进行了更新,以修正其长期趋势存在的问题。2021 年至 2024 年的 CMFD 数据正在制作中,计划于 2025 年上半年发布,从而使 CMFD 2.0 延伸至 2024 年底。

国家青藏高原科学数据中心 收录

Solar Radiation Data

该数据集包含全球多个地点的太阳辐射数据,涵盖了不同时间段和气象条件下的辐射强度。数据包括直接辐射、散射辐射和总辐射等指标,适用于太阳能资源评估和气候研究。

www.nrel.gov 收录