five

mimir|自然语言处理数据集|模型安全性数据集

收藏
huggingface2025-03-27 更新2025-03-28 收录
自然语言处理
模型安全性
下载链接:
https://huggingface.co/datasets/Al-not-AI/mimir
下载链接
链接失效反馈
资源简介:
MIMIR数据集是一个专门设计用于评估成员推断攻击方法的基准数据集,能够检测大型语言模型预训练数据中的成员信息。适用于在The Pile上训练的模型,如GPTNeo、Pythia和OPT。
创建时间:
2025-03-27
AI搜集汇总
数据集介绍
main_image_url
构建方式
MIMIR数据集作为评估成员推理攻击方法的基准工具,其构建过程聚焦于从大规模语言模型中检测预训练数据。数据集基于The Pile语料库,涵盖多个领域的文本数据,包括学术论文、数学问题、编程代码及网络论坛内容等。通过精心设计的采样策略,确保数据在成员与非成员样本之间保持平衡,同时采用n-gram技术增强数据的多样性和代表性。
使用方法
使用MIMIR数据集极为便捷,用户可通过HuggingFace的datasets库直接加载所需子集和分割选项。例如,加载pile_cc子集的7-gram分割数据仅需简单调用load_dataset函数。数据集中的每个样本均包含input和label特征,前者为文本数据,后者标识其成员属性。这种清晰的结构设计使得数据集能够无缝融入各类机器学习流程,助力隐私保护研究的高效开展。
背景与挑战
背景概述
MIMIR数据集诞生于2024年,由Michael Duan等来自多所顶尖研究机构的学者团队联合构建,旨在为大型语言模型的成员推理攻击(MIA)研究提供基准测试平台。该数据集聚焦自然语言处理领域的前沿隐私安全问题,通过系统性地收集The Pile语料库衍生的文本样本,为检测预训练数据泄露风险建立了标准化评估体系。其创新性地设计了成员与非成员文本对比结构,不仅推动了《Conference on Language Modeling》等顶会关于模型隐私的研究进展,更为GPTNeo、Pythia等主流开源模型的安全评估提供了重要工具。
当前挑战
该数据集面临的核心挑战体现在两个维度:在学术研究层面,成员推理攻击需精准区分模型训练数据的记忆特征与通用语言模式,而大型语言模型固有的参数规模和训练数据复杂性使得特征提取极具挑战性;在数据构建层面,研究者需平衡数据多样性与隐私保护的矛盾,既要确保arxiv、wikipedia等子集的领域覆盖率,又要通过n-gram采样策略控制信息泄露风险,其设计的7-13词片段滑动窗口与0.2-0.8采样比例参数对数据质量产生显著影响。
常用场景
经典使用场景
在隐私保护与机器学习安全领域,MIMIR数据集作为评估成员推理攻击(MIA)方法的基准工具,其经典使用场景聚焦于检测大规模语言模型预训练数据中的成员信息泄露风险。研究者通过该数据集可模拟攻击者行为,量化模型对训练数据的记忆程度,尤其适用于分析如GPTNeo、Pythia等基于The Pile语料训练的模型。数据集中精心设计的n-gram采样策略(如ngram_7_0.2)与成员/非成员对比样本,为评估攻击方法的精确度与鲁棒性提供了标准化实验环境。
解决学术问题
MIMIR数据集有效解决了成员推理攻击研究中缺乏针对性评估基准的痛点。传统方法难以准确衡量大语言模型对训练数据的记忆特性,而该数据集通过构建真实场景下的成员与非成员数据对,支持研究者验证攻击算法在文本连续性、时序分布等复杂特征上的敏感性。其提供的多领域子集(如arxiv、github)进一步推动了跨领域隐私泄露风险的比较研究,为模型训练数据脱敏技术的优化提供了关键实验依据。
实际应用
该数据集的实际价值体现在模型部署前的安全审计环节。企业可通过MIMIR评估即将发布的语言模型是否存在隐私泄露隐患,尤其适用于医疗(pubmed_central)、代码生成(github)等敏感领域。监管机构亦可借助其标准化测试结果,制定更精准的AI数据隐私合规标准。数据集中时序子集(temporal_arxiv)的设计,还能帮助检测模型对历史数据记忆的时效性特征。
数据集最近研究
最新研究方向
随着大规模语言模型(LLMs)在自然语言处理领域的广泛应用,其隐私安全问题日益受到关注。MIMIR数据集作为评估成员推理攻击(MIA)方法的基准工具,为研究者在检测预训练数据泄露方面提供了重要支持。近期研究聚焦于如何利用该数据集提升攻击检测的准确性和效率,特别是在针对GPTNeo、Pythia和OPT等主流模型的隐私风险评估中。与此同时,该数据集还被用于探索时间动态数据(如temporal_arxiv和temporal_wiki)对成员推理攻击效果的影响,为模型训练数据的时序隐私分析开辟了新方向。这些研究不仅推动了隐私保护技术的发展,也为制定更严格的模型数据使用规范提供了科学依据。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

中国交通事故深度调查(CIDAS)数据集

交通事故深度调查数据通过采用科学系统方法现场调查中国道路上实际发生交通事故相关的道路环境、道路交通行为、车辆损坏、人员损伤信息,以探究碰撞事故中车损和人伤机理。目前已积累深度调查事故10000余例,单个案例信息包含人、车 、路和环境多维信息组成的3000多个字段。该数据集可作为深入分析中国道路交通事故工况特征,探索事故预防和损伤防护措施的关键数据源,为制定汽车安全法规和标准、完善汽车测评试验规程、

北方大数据交易中心 收录

WideIRSTD Dataset

WideIRSTD数据集包含七个公开数据集:SIRST-V2、IRSTD-1K、IRDST、NUDT-SIRST、NUDT-SIRST-Sea、NUDT-MIRSDT、Anti-UAV,以及由国防科技大学团队开发的数据集,包括模拟陆基和太空基数据,以及真实手动标注的太空基数据。数据集包含具有各种目标形状(如点目标、斑点目标、扩展目标)、波长(如近红外、短波红外和热红外)、图像分辨率(如256、512、1024、3200等)的图像,以及不同的成像系统(如陆基、空基和太空基成像系统)。

github 收录

HazyDet

HazyDet是由解放军工程大学等机构创建的一个大规模数据集,专门用于雾霾场景下的无人机视角物体检测。该数据集包含383,000个真实世界实例,收集自自然雾霾环境和正常场景中人工添加的雾霾效果,以模拟恶劣天气条件。数据集的创建过程结合了深度估计和大气散射模型,确保了数据的真实性和多样性。HazyDet主要应用于无人机在恶劣天气条件下的物体检测,旨在提高无人机在复杂环境中的感知能力。

arXiv 收录

Nexdata/chinese_dialect

该数据集包含25,000小时的中文方言语音数据,收集自多个方言区域的本地方言使用者,涵盖闽南语、粤语、四川话、河南话、东北话、上海话、维吾尔语和藏语等。数据格式为16kHz、16bit、未压缩的wav文件,单声道。句子准确率超过95%。数据集支持的任务包括自动语音识别(ASR)和音频说话人识别。

hugging_face 收录

微博与抖音评论数据集

数据集源自微博平台与抖音平台的评论信息,基于两个热点事件来对评论等信息进行爬取收集形成数据集。原数据一共3W5条,但消极评论与中立评论远远大于积极评论。因此作特殊处理后,积极数据2601条,消极数据2367条,中立数据2725条,共7693条数据。

github 收录