five

dclm-baseline-1.0-parquet|预训练数据集数据集|自然语言处理数据集

收藏
huggingface2024-07-02 更新2024-12-12 收录
预训练数据集
自然语言处理
下载链接:
https://huggingface.co/datasets/mlfoundations/dclm-baseline-1.0-parquet
下载链接
链接失效反馈
资源简介:
DCLM-baseline 是一个包含4万亿个标记和30亿个文档的预训练数据集,由DCLM团队精心策划,使用英语,并根据CC-by-4.0许可证发布。该数据集源自Common Crawl,经过一系列清洗、过滤和去重步骤处理,特别适用于作为DCLM基准的研究基线。
创建时间:
2024-07-01
原始信息汇总

数据集概述

基本信息

  • 名称: DCLM-baseline
  • 语言: 英语
  • 许可: CC-by-4.0
  • 大小: 4T token / 3B document

数据集描述

DCLM-baseline 是一个用于预训练语言模型的大型数据集,包含4万亿个token和30亿个文档,旨在为语言模型基准测试提供强大的性能。

数据集来源

使用场景

  • 直接使用: 作为DCLM基准测试的研究基线,展示数据筛选在训练高性能语言模型中的重要性。
  • 非适用场景: 不适用于训练生产就绪模型或特定领域(如代码和数学)的模型。

数据集创建

  • 创建目的: 展示DCLM测试床在开发高质量训练集方面的有效性,作为数据筛选策略的证明。
  • 数据处理: 通过一系列清洗、过滤和去重步骤从原始Common Crawl数据(DCLM-Pool)中创建。

偏见、风险和限制

数据集可能包含Common Crawl数据中的偏见,且在代码和数学任务上的表现有限。仅适用于研究目的。

引用

bibtex @misc{li2024datacomplm, title={DataComp-LM: In search of the next generation of training sets for language models}, author={Jeffrey Li and others}, year={2024}, eprint={2406.11794}, archivePrefix={arXiv}, primaryClass={cs.LG} }

AI搜集汇总
数据集介绍
main_image_url
构建方式
DCLM-baseline数据集是通过对Common Crawl原始数据进行一系列清洗、过滤和去重步骤构建而成。具体步骤包括启发式清洗和过滤、使用Bloom过滤器进行去重,以及基于fastText分类器的模型过滤。这些步骤旨在提升数据质量,确保数据集适用于语言模型的训练与研究。
特点
DCLM-baseline数据集包含4万亿个标记和30亿个文档,旨在为语言模型基准测试提供高质量的训练数据。其特点在于通过严格的数据筛选和去重策略,显著提升了数据的纯净度和多样性,使其在语言理解任务中表现出色。此外,该数据集以开放许可发布,支持研究社区的自由使用与探索。
使用方法
DCLM-baseline数据集主要用于语言模型的研究与基准测试,特别适合用于验证数据筛选策略对模型性能的影响。用户可通过Hugging Face平台直接访问该数据集,并利用其进行模型训练与评估。需要注意的是,该数据集不适用于生产级模型的训练,也不推荐用于特定领域(如代码和数学)的任务。
背景与挑战
背景概述
DCLM-baseline数据集由DCLM团队于2024年创建,旨在为语言模型训练提供一个高质量的研究基准。该数据集基于Common Crawl的原始数据,经过一系列清洗、过滤和去重处理,最终生成了包含4万亿个标记和30亿个文档的预训练数据集。DCLM-baseline的构建展示了数据筛选策略在提升语言模型性能中的重要性,并为DCLM基准测试提供了一个强有力的研究工具。该数据集的出现推动了语言模型训练数据的标准化和优化,尤其是在开放数据集与封闭数据集的性能对比研究中,DCLM-baseline为学术界提供了重要的参考依据。
当前挑战
DCLM-baseline数据集在构建过程中面临多重挑战。首先,数据清洗和过滤的复杂性极高,需要设计高效的启发式方法和模型驱动的筛选策略,以确保数据质量。其次,去重处理需要借助Bloom过滤器等技术,以应对海量数据的存储和计算压力。此外,数据集可能继承了Common Crawl中的偏见,这对模型的公平性和泛化能力提出了挑战。在应用层面,DCLM-baseline虽然在语言理解任务上表现优异,但在代码和数学等特定领域的性能有限,这限制了其在实际生产环境中的应用范围。因此,该数据集主要适用于研究场景,而非直接用于生产模型的训练。
常用场景
经典使用场景
DCLM-baseline数据集在自然语言处理领域中被广泛用于语言模型的预训练和基准测试。其庞大的数据规模和高质量的数据筛选机制,使其成为评估和比较不同语言模型性能的理想选择。研究人员可以通过该数据集验证模型在语言理解、生成和推理任务中的表现,从而推动语言模型技术的发展。
衍生相关工作
DCLM-baseline数据集催生了一系列相关研究工作,特别是在语言模型训练数据集的优化和评估方面。例如,基于该数据集的研究提出了新的数据筛选和去重策略,进一步提升了模型性能。此外,该数据集还被用于探索多模态语言模型的训练方法,为未来语言模型的发展提供了新的研究方向。
数据集最近研究
最新研究方向
在自然语言处理领域,DCLM-baseline数据集的最新研究方向聚焦于如何通过高效的数据筛选和去重策略,提升大规模语言模型的预训练效果。该数据集通过从Common Crawl中提取并经过多步清洗、过滤和去重处理,形成了一个包含4万亿标记和30亿文档的高质量预训练数据集。研究表明,基于DCLM-baseline训练的模型在多个基准测试中表现出色,尤其是在CORE、MMLU和EXTENDED等任务上,显著优于其他开放数据集训练的模型。这一成果不仅验证了数据质量对模型性能的关键影响,也为未来语言模型的训练数据优化提供了新的思路。此外,DCLM-baseline的开源特性使其成为研究社区中的重要资源,推动了开放数据与开放模型的发展趋势。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

AgiBot World

为了进一步推动通用具身智能领域研究进展,让高质量机器人数据触手可及,作为上海模塑申城语料普惠计划中的一份子,智元机器人携手上海人工智能实验室、国家地方共建人形机器人创新中心以及上海库帕思,重磅发布全球首个基于全域真实场景、全能硬件平台、全程质量把控的百万真机数据集开源项目 AgiBot World。这一里程碑式的开源项目,旨在构建国际领先的开源技术底座,标志着具身智能领域 「ImageNet 时刻」已到来。AgiBot World 是全球首个基于全域真实场景、全能硬件平台、全程质量把控的大规模机器人数据集。相比于 Google 开源的 Open X-Embodiment 数据集,AgiBot World 的长程数据规模高出 10 倍,场景范围覆盖面扩大 100 倍,数据质量从实验室级上升到工业级标准。AgiBot World 数据集收录了八十余种日常生活中的多样化技能,从抓取、放置、推、拉等基础操作,到搅拌、折叠、熨烫等精细长程、双臂协同复杂交互,几乎涵盖了日常生活所需的绝大多数动作需求。

github 收录

VQA

我们提出了自由形式和开放式视觉问答 (VQA) 的任务。给定图像和关于图像的自然语言问题,任务是提供准确的自然语言答案。反映许多现实世界的场景,例如帮助视障人士,问题和答案都是开放式的。视觉问题有选择地针对图像的不同区域,包括背景细节和底层上下文。因此,与生成通用图像说明的系统相比,在 VQA 上取得成功的系统通常需要对图像和复杂推理有更详细的理解。此外,VQA 适合自动评估,因为许多开放式答案仅包含几个单词或一组封闭的答案,可以以多项选择的形式提供。我们提供了一个数据集包含 100,000 的图像和问题并讨论它提供的信息。提供了许多 VQA 基线,并与人类表现进行了比较。

OpenDataLab 收录

HIT-UAV

HIT-UAV数据集包含2898张红外热成像图像,这些图像从43,470帧无人机拍摄的画面中提取。数据集涵盖了多种场景,如学校、停车场、道路和游乐场,在不同的光照条件下,包括白天和夜晚。

github 收录

YOLO-dataset

该数据集用于训练YOLO模型,包括分类、检测和姿态识别模型。目前支持v8版本,未来计划支持更多版本。

github 收录

UCI Wine

UCI Wine数据集包含了178个样本,每个样本有13个特征,用于分类任务。这些特征包括葡萄酒的化学成分,如酒精含量、苹果酸、灰分等。数据集的目标是将葡萄酒分类为三个不同的品种。

archive.ics.uci.edu 收录