five

Zyda - 包含1.3万亿Token的开源预训练数据集|语言模型数据集|预训练数据集数据集

收藏
huggingface2024-12-12 收录
语言模型
预训练数据集
下载链接:
https://hf-mirror.com/datasets/Zyphra/Zyda
下载链接
链接失效反馈
资源简介:
Zyda数据集是由Zyphra公司创建的一个大型语言模型预训练数据集。该数据集通过整合多个开源数据集并进行深度处理来构建,包含了1.3万亿Token,其质量接近商业语料。Zyda数据集的创建过程包括了严格的过滤和去重处理,以保持和提高从原始数据集中派生出的质量。实验结果表明,使用Zyda训练的语言模型在多项评估任务上,性能优于其他同类数据集,如Dolma、FineWeb和RefinedWeb。Zyda的发布为开源社区提供了一个高质量的、大规模的预训练语料库,为开源语言模型研究奠定数据基础。
提供机构:
Zyphra
原始信息汇总

数据集概述

基本信息

  • 数据集名称: Zyda
  • 许可证: Open Data Commons License (ODC-BY)
  • 任务类别: 文本生成
  • 语言: 英语
  • 大小类别: 大于1TB

数据集结构

  • 配置名称: default
  • 分割:
    • 名称: train
    • 样本数量: 1,594,197,267

配置详情

  • 默认配置:
    • 数据文件路径: data///*
  • 其他配置:
    • zyda_no_starcoder: data/zyda_no_starcoder//
    • zyda_arxiv_only: data/zyda_no_starcoder/zyda_arxiv/*
    • zyda_c4-en_only: data/zyda_no_starcoder/c4_en/*
    • zyda_peS2o_only: data/zyda_no_starcoder/zyda_peS2o/*
    • zyda_pile-uncopyrighted_only: data/zyda_no_starcoder/zyda_pile-uncopyrighted/*
    • zyda_refinedweb_only: data/zyda_no_starcoder/zyda_refinedweb/*
    • zyda_slimpajama_only: data/zyda_no_starcoder/zyda_slimpajama/*
    • zyda_starcoder_only: data/zyda_starcoder//

数据集描述

  • 数据集来源: 由七个高质量的开源数据集组成
  • 数据字段:
    • text: 训练文本
    • source: 文本来源
    • filtering_features: 用于过滤的预计算特征值(转换为JSON字符串)
    • source_other: 来源数据集的元数据(转换为JSON字符串)

数据收集和处理

  • 处理步骤: 过滤和去重
  • 过滤方法: 使用手工调整的过滤器,来源包括C4、RedPajama和Gopher等
  • 去重方法: 使用minhash近似去重,基于13-gram和Jaccard相似度阈值0.4

数据集组件

组件 下载大小 (GB) 文档数量 (百万) 令牌数量 (十亿)
zyda_refinedweb_only 1,712.4 920.5 564.8
zyda_c4-en_only 366.7 254.5 117.5
zyda_slimpajama_only 594.7 142.3 242.3
zyda_pile-uncopyrighted_only 189.4 64.9 82.9
zyda_peS2o_only 133.7 35.7 53.4
zyda_arxiv_only 8.3 0.3 4.7
zyda_starcoder_only 299.5 176.1 231.3
总计 3,304.7 1,594.2 1,296.7

许可证信息

  • 许可证: Open Data Commons License (ODC-BY)
  • 使用条款: 使用此数据集还需遵守原始数据源的许可证协议和使用条款

引用信息

@misc{tokpanov2024zyda, title={Zyda: A 1.3T Dataset for Open Language Modeling}, author={Yury Tokpanov and Beren Millidge and Paolo Glorioso and Jonathan Pilault and Adam Ibrahim and James Whittington and Quentin Anthony}, year={2024}, eprint={2406.01981}, archivePrefix={arXiv}, primaryClass={cs.CL} }

AI搜集汇总
数据集介绍
main_image_url
构建方式
Zyda数据集的构建过程分为两个主要阶段:过滤和去重。在过滤阶段,研究团队采用了多种手工调整的过滤器,这些过滤器来源于C4、RedPajama和Gopher等数据集,并结合了自定义的过滤规则。在去重阶段,使用了基于13-gram的minhash近似去重方法,minhash签名大小为128,并过滤掉Jaccard相似度超过0.4的文档。这一精细的处理流程确保了数据集的高质量和多样性。
特点
Zyda数据集包含了1.3万亿个Token,主要来源于七个高质量的开源数据集,如Pile Uncopyrighted、C4-en、peS2o等。数据集经过严格的过滤和去重处理,确保了其内容的纯净性和多样性。Zyda在语言建模任务中表现出色,尤其是在1.4B模型上,经过50B Token训练后,其性能超越了Pile、Dolma、RefinedWeb和Fineweb等数据集。Zyda的非StarCoder版本在语言任务中表现尤为突出,成为当前最优秀的开源数据集之一。
使用方法
Zyda数据集可以通过Hugging Face的`datasets`库进行下载和使用。用户可以选择下载完整的数据集,也可以根据需要下载特定的子集,如`zyda_no_starcoder`、`zyda_arxiv_only`等。下载后,数据集可以直接用于语言模型的训练,支持从1T到多T级别的模型训练。此外,Zyda还可以与其他数据集如Fineweb或Dolma结合使用,以进行更大规模的训练。
背景与挑战
背景概述
Zyda数据集是由Zyphra团队于2024年发布的一个包含1.3万亿Token的开源预训练数据集,旨在为大规模语言模型训练提供高质量的数据支持。该数据集通过整合多个开源且高质量的数据源,并经过统一的过滤和去重处理,确保了数据的高效性和多样性。Zyda的早期版本已被用于Zamba模型的预训练,并在多项语言任务中表现出色,证明了其在预训练数据集中的卓越性能。Zyda的发布不仅推动了大规模语言模型的研究,还为开源社区提供了宝贵的资源。
当前挑战
Zyda数据集在构建过程中面临多重挑战。首先,数据源的多样性和质量参差不齐,如何确保整合后的数据集在语言任务中的表现优于现有数据集是一个关键问题。其次,数据过滤和去重过程中,如何平衡数据质量与数据量的保留,尤其是在处理大规模数据时,技术难度显著增加。此外,数据集可能包含未过滤的个人敏感信息或偏见内容,如何在保证数据开放性的同时,减少潜在的法律和伦理风险,也是构建过程中不可忽视的挑战。
常用场景
经典使用场景
Zyda数据集作为大规模语言模型预训练的核心资源,广泛应用于自然语言处理领域。其1.3万亿Token的规模使其成为训练超大规模语言模型的理想选择,尤其是在需要高精度和广泛覆盖的文本生成任务中。通过结合多个高质量开源数据集并进行统一过滤和去重,Zyda在语言模型训练中表现出色,尤其适用于从数十亿到数万亿Token规模的模型训练。
实际应用
在实际应用中,Zyda数据集被广泛用于训练高性能的语言模型,支持多种下游任务,如文本生成、机器翻译、问答系统等。其高质量的数据源和严格的过滤流程确保了模型在实际应用中的稳定性和可靠性。例如,Zyda已被用于Zamba模型的预训练阶段,该模型在多个基准测试中表现出色,证明了Zyda在实际应用中的强大潜力。
衍生相关工作
Zyda数据集的发布推动了多项相关研究工作的进展。例如,基于Zyda训练的Zamba模型在语言建模任务中表现出色,成为该领域的经典工作之一。此外,Zyda的过滤和去重技术也为其他大规模数据集的处理提供了参考。其技术报告和开源代码进一步促进了学术界对大规模数据集处理方法的探索,推动了自然语言处理领域的技术进步。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4099个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

中国1km分辨率逐月降水量数据集(1901-2024)

该数据集为中国逐月降水量数据,空间分辨率为0.0083333°(约1km),时间为1901.1-2024.12。数据格式为NETCDF,即.nc格式。该数据集是根据CRU发布的全球0.5°气候数据集以及WorldClim发布的全球高分辨率气候数据集,通过Delta空间降尺度方案在中国降尺度生成的。并且,使用496个独立气象观测点数据进行验证,验证结果可信。本数据集包含的地理空间范围是全国主要陆地(包含港澳台地区),不含南海岛礁等区域。为了便于存储,数据均为int16型存于nc文件中,降水单位为0.1mm。 nc数据可使用ArcMAP软件打开制图; 并可用Matlab软件进行提取处理,Matlab发布了读入与存储nc文件的函数,读取函数为ncread,切换到nc文件存储文件夹,语句表达为:ncread (‘XXX.nc’,‘var’, [i j t],[leni lenj lent]),其中XXX.nc为文件名,为字符串需要’’;var是从XXX.nc中读取的变量名,为字符串需要’’;i、j、t分别为读取数据的起始行、列、时间,leni、lenj、lent i分别为在行、列、时间维度上读取的长度。这样,研究区内任何地区、任何时间段均可用此函数读取。Matlab的help里面有很多关于nc数据的命令,可查看。数据坐标系统建议使用WGS84。

国家青藏高原科学数据中心 收录

Pima Indians Diabetes Database

该项目使用的数据集是Pima Indians Diabetes Database,来源于UCI机器学习库。该数据集包含多个医学预测变量和一个目标变量,即Outcome,用于指示患者是否患有糖尿病(1)或未患(0)。

github 收录

WorldClim

WorldClim是一个全球气候数据集,提供了全球范围内的气候数据,包括温度、降水、生物气候变量等。数据集的分辨率从30秒到10分钟不等,适用于各种尺度的气候分析和建模。

www.worldclim.org 收录

ISIC 2018

ISIC 2018数据集包含2594张皮肤病变图像,用于皮肤癌检测任务。数据集分为训练集、验证集和测试集,每张图像都附有详细的元数据,包括病变类型、患者年龄、性别和解剖部位等信息。

challenge2018.isic-archive.com 收录

TCIA

TCIA(The Cancer Imaging Archive)是一个公开的癌症影像数据集,包含多种癌症类型的医学影像数据,如CT、MRI、PET等。这些数据通常与临床和病理信息相结合,用于癌症研究和临床试验。

www.cancerimagingarchive.net 收录