five

dclm-baseline-1.0-parquet|预训练数据集数据集|自然语言处理数据集

收藏
huggingface2024-07-02 更新2024-12-12 收录
预训练数据集
自然语言处理
下载链接:
https://huggingface.co/datasets/mlfoundations/dclm-baseline-1.0-parquet
下载链接
链接失效反馈
资源简介:
DCLM-baseline 是一个包含4万亿个标记和30亿个文档的预训练数据集,由DCLM团队精心策划,使用英语,并根据CC-by-4.0许可证发布。该数据集源自Common Crawl,经过一系列清洗、过滤和去重步骤处理,特别适用于作为DCLM基准的研究基线。
创建时间:
2024-07-01
原始信息汇总

数据集概述

基本信息

  • 名称: DCLM-baseline
  • 语言: 英语
  • 许可: CC-by-4.0
  • 大小: 4T token / 3B document

数据集描述

DCLM-baseline 是一个用于预训练语言模型的大型数据集,包含4万亿个token和30亿个文档,旨在为语言模型基准测试提供强大的性能。

数据集来源

使用场景

  • 直接使用: 作为DCLM基准测试的研究基线,展示数据筛选在训练高性能语言模型中的重要性。
  • 非适用场景: 不适用于训练生产就绪模型或特定领域(如代码和数学)的模型。

数据集创建

  • 创建目的: 展示DCLM测试床在开发高质量训练集方面的有效性,作为数据筛选策略的证明。
  • 数据处理: 通过一系列清洗、过滤和去重步骤从原始Common Crawl数据(DCLM-Pool)中创建。

偏见、风险和限制

数据集可能包含Common Crawl数据中的偏见,且在代码和数学任务上的表现有限。仅适用于研究目的。

引用

bibtex @misc{li2024datacomplm, title={DataComp-LM: In search of the next generation of training sets for language models}, author={Jeffrey Li and others}, year={2024}, eprint={2406.11794}, archivePrefix={arXiv}, primaryClass={cs.LG} }

AI搜集汇总
数据集介绍
main_image_url
构建方式
DCLM-baseline数据集是通过对Common Crawl原始数据进行一系列清洗、过滤和去重步骤构建而成。具体步骤包括启发式清洗和过滤、使用Bloom过滤器进行去重,以及基于fastText分类器的模型过滤。这些步骤旨在提升数据质量,确保数据集适用于语言模型的训练与研究。
特点
DCLM-baseline数据集包含4万亿个标记和30亿个文档,旨在为语言模型基准测试提供高质量的训练数据。其特点在于通过严格的数据筛选和去重策略,显著提升了数据的纯净度和多样性,使其在语言理解任务中表现出色。此外,该数据集以开放许可发布,支持研究社区的自由使用与探索。
使用方法
DCLM-baseline数据集主要用于语言模型的研究与基准测试,特别适合用于验证数据筛选策略对模型性能的影响。用户可通过Hugging Face平台直接访问该数据集,并利用其进行模型训练与评估。需要注意的是,该数据集不适用于生产级模型的训练,也不推荐用于特定领域(如代码和数学)的任务。
背景与挑战
背景概述
DCLM-baseline数据集由DCLM团队于2024年创建,旨在为语言模型训练提供一个高质量的研究基准。该数据集基于Common Crawl的原始数据,经过一系列清洗、过滤和去重处理,最终生成了包含4万亿个标记和30亿个文档的预训练数据集。DCLM-baseline的构建展示了数据筛选策略在提升语言模型性能中的重要性,并为DCLM基准测试提供了一个强有力的研究工具。该数据集的出现推动了语言模型训练数据的标准化和优化,尤其是在开放数据集与封闭数据集的性能对比研究中,DCLM-baseline为学术界提供了重要的参考依据。
当前挑战
DCLM-baseline数据集在构建过程中面临多重挑战。首先,数据清洗和过滤的复杂性极高,需要设计高效的启发式方法和模型驱动的筛选策略,以确保数据质量。其次,去重处理需要借助Bloom过滤器等技术,以应对海量数据的存储和计算压力。此外,数据集可能继承了Common Crawl中的偏见,这对模型的公平性和泛化能力提出了挑战。在应用层面,DCLM-baseline虽然在语言理解任务上表现优异,但在代码和数学等特定领域的性能有限,这限制了其在实际生产环境中的应用范围。因此,该数据集主要适用于研究场景,而非直接用于生产模型的训练。
常用场景
经典使用场景
DCLM-baseline数据集在自然语言处理领域中被广泛用于语言模型的预训练和基准测试。其庞大的数据规模和高质量的数据筛选机制,使其成为评估和比较不同语言模型性能的理想选择。研究人员可以通过该数据集验证模型在语言理解、生成和推理任务中的表现,从而推动语言模型技术的发展。
衍生相关工作
DCLM-baseline数据集催生了一系列相关研究工作,特别是在语言模型训练数据集的优化和评估方面。例如,基于该数据集的研究提出了新的数据筛选和去重策略,进一步提升了模型性能。此外,该数据集还被用于探索多模态语言模型的训练方法,为未来语言模型的发展提供了新的研究方向。
数据集最近研究
最新研究方向
在自然语言处理领域,DCLM-baseline数据集的最新研究方向聚焦于如何通过高效的数据筛选和去重策略,提升大规模语言模型的预训练效果。该数据集通过从Common Crawl中提取并经过多步清洗、过滤和去重处理,形成了一个包含4万亿标记和30亿文档的高质量预训练数据集。研究表明,基于DCLM-baseline训练的模型在多个基准测试中表现出色,尤其是在CORE、MMLU和EXTENDED等任务上,显著优于其他开放数据集训练的模型。这一成果不仅验证了数据质量对模型性能的关键影响,也为未来语言模型的训练数据优化提供了新的思路。此外,DCLM-baseline的开源特性使其成为研究社区中的重要资源,推动了开放数据与开放模型的发展趋势。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4099个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

学生课堂行为数据集 (SCB-dataset3)

学生课堂行为数据集(SCB-dataset3)由成都东软学院创建,包含5686张图像和45578个标签,重点关注六种行为:举手、阅读、写作、使用手机、低头和趴桌。数据集覆盖从幼儿园到大学的不同场景,通过YOLOv5、YOLOv7和YOLOv8算法评估,平均精度达到80.3%。该数据集旨在为学生行为检测研究提供坚实基础,解决教育领域中学生行为数据集的缺乏问题。

arXiv 收录

ShapeNet

ShapeNet 是由斯坦福大学、普林斯顿大学和美国芝加哥丰田技术研究所的研究人员开发的大型 3D CAD 模型存储库。该存储库包含超过 3 亿个模型,其中 220,000 个模型被分类为使用 WordNet 上位词-下位词关系排列的 3,135 个类。 ShapeNet Parts 子集包含 31,693 个网格,分为 16 个常见对象类(即桌子、椅子、平面等)。每个形状基本事实包含 2-5 个部分(总共 50 个部分类)。

OpenDataLab 收录

LEVIR-CD

LEVIR-CD 是一个新的大规模遥感建筑变化检测数据集。引入的数据集将成为评估变化检测 (CD) 算法的新基准,尤其是基于深度学习的算法。 LEVIR-CD 由 637 个非常高分辨率(VHR,0.5m/像素)Google Earth (GE) 图像块对组成,大小为 1024 × 1024 像素。这些时间跨度为 5 到 14 年的双时相图像具有显着的土地利用变化,尤其是建筑增长。 LEVIR-CD涵盖别墅住宅、高层公寓、小型车库和大型仓库等各类建筑。在这里,我们关注与建筑相关的变化,包括建筑增长(从土壤/草地/硬化地面或在建建筑到新建筑区域的变化)和建筑衰退。这些双时相图像由遥感图像解释专家使用二进制标签(1 表示变化,0 表示不变)进行注释。我们数据集中的每个样本都由一个注释器进行注释,然后由另一个注释器进行双重检查以产生高质量的注释。完整注释的 LEVIR-CD 总共包含 31,333 个单独的变更构建实例。

OpenDataLab 收录

ReferCOCO数据集

ReferCOCO数据集包括refcoco、refcoco+和refcocog三个子集,用于视觉定位任务。数据集包含图像和对应的描述性文本,用于训练和测试模型识别图像中特定对象的能力。

github 收录

AgiBot World

为了进一步推动通用具身智能领域研究进展,让高质量机器人数据触手可及,作为上海模塑申城语料普惠计划中的一份子,智元机器人携手上海人工智能实验室、国家地方共建人形机器人创新中心以及上海库帕思,重磅发布全球首个基于全域真实场景、全能硬件平台、全程质量把控的百万真机数据集开源项目 AgiBot World。这一里程碑式的开源项目,旨在构建国际领先的开源技术底座,标志着具身智能领域 「ImageNet 时刻」已到来。AgiBot World 是全球首个基于全域真实场景、全能硬件平台、全程质量把控的大规模机器人数据集。相比于 Google 开源的 Open X-Embodiment 数据集,AgiBot World 的长程数据规模高出 10 倍,场景范围覆盖面扩大 100 倍,数据质量从实验室级上升到工业级标准。AgiBot World 数据集收录了八十余种日常生活中的多样化技能,从抓取、放置、推、拉等基础操作,到搅拌、折叠、熨烫等精细长程、双臂协同复杂交互,几乎涵盖了日常生活所需的绝大多数动作需求。

github 收录