five

togethercomputer/RedPajama-Data-1T

收藏
hugging_face2024-06-17 更新2024-03-04 收录
下载链接:
https://hf-mirror.com/datasets/togethercomputer/RedPajama-Data-1T
下载链接
链接失效反馈
资源简介:
RedPajama是一个用于文本生成任务的大型数据集,包含2084个jsonl文件,总token数达到1.2万亿。数据集主要使用英语,但也包含多语言的Wikipedia部分。数据集结构包括文本内容、元数据(如URL、时间戳、来源和语言)以及标识数据子集的字段。创建过程涉及从多个源(如Commoncrawl、C4、GitHub等)下载和预处理数据,以尽可能接近LLaMa论文的描述。
提供机构:
togethercomputer
原始信息汇总

数据集概述

名称: RedPajama-Data-1T

任务类别: 文本生成

语言: 主要为英语,Wikipedia部分包含多语言

数据集结构: json { "text": ..., "meta": {"url": "...", "timestamp": "...", "source": "...", "language": "...", ...}, "red_pajama_subset": "common_crawl" | "c4" | "github" | "books" | "arxiv" | "wikipedia" | "stackexchange" }

数据集组成:

  • 包含2084个jsonl文件
  • 可通过HuggingFace或直接下载获取

数据集来源及处理:

  • Commoncrawl: 下载自Commoncrawl,经过去重和质量过滤
  • C4: 下载自Huggingface,格式转换
  • GitHub: 下载自Google BigQuery,去重和质量过滤,仅保留特定开源许可项目
  • Wikipedia: 下载自Huggingface,已预处理
  • ArXiv: 下载自Amazon S3,仅保留LaTeX源文件并去除不必要部分
  • StackExchange: 下载自Internet Archive,仅保留28个最大站点内容,去除HTML标签,组织为问答对

数据集大小:

  • 总计1.2万亿token
  • 各部分token数量如下:
    • Commoncrawl: 878亿
    • C4: 175亿
    • GitHub: 59亿
    • Books: 26亿
    • ArXiv: 28亿
    • Wikipedia: 24亿
    • StackExchange: 20亿

许可证:

  • 请参考各数据子集的许可证

引用信息:

@software{together2023redpajama, author = {Together Computer}, title = {RedPajama: An Open Source Recipe to Reproduce LLaMA training dataset}, month = April, year = 2023, url = {https://github.com/togethercomputer/RedPajama-Data} }

AI搜集汇总
数据集介绍
main_image_url
构建方式
RedPajama-Data-1T数据集旨在遵循LLaMa论文的步骤,尽可能重现其数据集构建方法。该数据集从多个来源收集数据,包括Commoncrawl、C4、GitHub、ArXiv、Wikipedia以及StackExchange等,通过一系列预处理步骤如去重、过滤低质量文本、格式转换等,最终形成了结构化的数据集。
特点
该数据集的主要特点是完全开源且不含版权争议内容,以英语为主,但也包含多种语言的数据。数据结构清晰,每个条目包含文本内容和元数据,详细记录了来源、时间戳、语言等信息。此外,数据集通过严格的预处理保证了文本质量,适用于文本生成等任务。
使用方法
用户可以通过HuggingFace的数据集库直接加载RedPajama-Data-1T数据集。此外,数据集也提供了SHA256校验和以确保数据完整性。用户可以根据需要,通过设置环境变量来从本地加载已下载数据,或者直接使用数据集提供的脚本从源头重建数据集。
背景与挑战
背景概述
RedPajama-Data-1T数据集,作为LLaMa数据集的开源实现,其构建宗旨在于尽可能接近LLaMa论文中的数据集构建方法。该数据集由Together Computer团队于2023年创建,包含了来自Commoncrawl、C4、GitHub、ArXiv、Wikipedia以及StackExchange等来源的文本数据,总计达到1.2万亿个token。数据集以英语为主,但也包含多语言维基百科的内容。该数据集旨在为文本生成任务提供高质量的数据支持,对于自然语言处理领域的研究具有重要的参考价值。
当前挑战
在构建RedPajama-Data-1T数据集的过程中,研究人员面临了多个挑战。首先,确保数据质量是关键,为此团队对Commoncrawl的数据进行了清洗和去重,同时对GitHub的数据进行了筛选,确保只保留符合特定许可证的项目。其次,对于不同来源的数据,如ArXiv的latex文件和StackExchange的帖子,需要特定的预处理步骤以适应数据集的格式。此外,数据集在构建过程中还需克服版权问题,例如原本包含的书籍数据因版权侵犯问题而被移除。这些挑战不仅要求高效率的数据处理技术,还涉及到法律合规性和数据伦理问题。
常用场景
经典使用场景
在自然语言处理领域,RedPajama-Data-1T数据集被广泛应用于文本生成任务中,如构建聊天机器人、自动摘要、内容创作等场景,其庞大的数据量为模型提供了丰富的语言理解和生成能力。
衍生相关工作
基于RedPajama-Data-1T数据集,学术界和工业界衍生出了大量相关的工作,包括但不限于构建更大规模的语料库、开发新的预训练模型、以及针对特定任务的模型微调等研究。
数据集最近研究
最新研究方向
在自然语言处理领域,togethercomputer/RedPajama-Data-1T数据集作为LLaMa数据集的开源实现,引起了广泛关注。该数据集的构建旨在为文本生成任务提供高质量的训练基础。近期研究集中于深入挖掘该数据集在文本生成模型训练中的应用,特别是在提高模型生成文本的多样性和准确性方面。通过精细化的数据预处理和子集划分,研究者在遵循开源协议的前提下,探索数据集在机器翻译、问答系统以及对话生成等领域的应用潜力,为人工智能技术的发展贡献了新的研究视角和实验资源。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4099个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

AlphaFold Protein Structure Database

AlphaFold是由Google DeepMind开发的AI系统,可从氨基酸序列预测蛋白质的三维结构,其准确性媲美实验方法。Google DeepMind与欧洲生物信息学研究所(EMBL-EBI)合作创建了AlphaFold Protein Structure Database,免费向科学界开放,现已涵盖超过2亿条UniProt蛋白序列,包含人类及47种重要生物的蛋白质组。

alphafold.com 收录

中国区域地面气象要素驱动数据集 v2.0(1951-2024)

中国区域地面气象要素驱动数据集(China Meteorological Forcing Data,以下简称 CMFD)是为支撑中国区域陆面、水文、生态等领域研究而研发的一套高精度、高分辨率、长时间序列数据产品。本页面发布的 CMFD 2.0 包含了近地面气温、气压、比湿、全风速、向下短波辐射通量、向下长波辐射通量、降水率等气象要素,时间分辨率为 3 小时,水平空间分辨率为 0.1°,时间长度为 74 年(1951~2024 年),覆盖了 70°E~140°E,15°N~55°N 空间范围内的陆地区域。CMFD 2.0 融合了欧洲中期天气预报中心 ERA5 再分析数据与气象台站观测数据,并在辐射、降水数据产品中集成了采用人工智能技术制作的 ISCCP-ITP-CNN 和 TPHiPr 数据产品,其数据精度较 CMFD 的上一代产品有显著提升。 CMFD 历经十余年的发展,其间发布了多个重要版本。2019 年发布的 CMFD 1.6 是完全采用传统数据融合技术制作的最后一个 CMFD 版本,而本次发布的 CMFD 2.0 则是 CMFD 转向人工智能技术制作的首个版本。此版本与 1.6 版具有相同的时空分辨率和基础变量集,但在其它诸多方面存在大幅改进。除集成了采用人工智能技术制作的辐射和降水数据外,在制作 CMFD 2.0 的过程中,研发团队尽可能采用单一来源的再分析数据作为输入并引入气象台站迁址信息,显著缓解了 CMFD 1.6 中因多源数据拼接和气象台站迁址而产生的虚假气候突变。同时,CMFD 2.0 数据的时间长度从 CMFD 1.6 的 40 年大幅扩展到了 74 年,并将继续向后延伸。CMFD 2.0 的网格空间范围虽然与 CMFD 1.6 相同,但其有效数据扩展到了中国之外,能够更好地支持跨境区域研究。为方便用户使用,CMFD 2.0 还在基础变量集之外提供了若干衍生变量,包括近地面相对湿度、雨雪分离降水产品等。此外,CMFD 2.0 摒弃了 CMFD 1.6 中通过 scale_factor 和 add_offset 参数将实型数据化为整型数据的压缩技术,转而直接将实型数据压缩存储于 NetCDF4 格式文件中,从而消除了用户使用数据时进行解压换算的困扰。 本数据集原定版本号为 1.7,但鉴于本数据集从输入数据到研制技术都较上一代数据产品有了大幅的改变,故将其版本号重新定义为 2.0。

国家青藏高原科学数据中心 收录

WikiArt

为了收集我们的美术作品集,我们使用了公开的 “维基艺术绘画” 数据集4 ;据我们所知,这是最大的数字化艺术品在线公开收藏。这个收藏有从十五个世纪到当代艺术家的1,119艺术家的81,449精工画的图像。 这些绘画来自27种不同的风格 (抽象,拜占庭,巴洛克等) 和 45种不同的流派 (室内、风景等)先前的作品 [26,9] 使用了不同的资源,并制作了较小的收藏,在风格,流派方面的可变性有限 和艺术家。[4] 的工作在数据收集程序方面最接近我们的工作,但是他们收集的图像数量是我们的一半。

OpenDataLab 收录

UAVDT Dataset

The authors constructed a new UAVDT Dataset focused on complex scenarios with new level challenges. Selected from 10 hours raw videos, about 80, 000 representative frames are fully annotated with bounding boxes as well as up to 14 kinds of attributes (e.g., weather condition, flying altitude, camera view, vehicle category, and occlusion) for three fundamental computer vision tasks: object detection, single object tracking, and multiple object tracking.

datasetninja.com 收录

IR-500K

IR-500K是一个大型红外数据集,包含500,000张红外图像,涵盖了各种场景和物体在不同环境条件下的图像。

github 收录