five

维基百科中文语料|自然语言处理数据集|文本挖掘数据集

收藏
github2024-09-11 更新2024-09-12 收录
自然语言处理
文本挖掘
下载链接:
https://github.com/jiggle-git/wikicorpus
下载链接
链接失效反馈
资源简介:
该数据集包含从维基百科下载的中文词条文件,经过解析、清洗和处理后生成的语料文件。每个语料数据包含词条ID、词条标题和词条内容。
创建时间:
2024-09-11
原始信息汇总

wikicorpus

数据集概述

wikicorpus 是一个用于生成维基百科中文语料的数据集。

数据集内容

1 维基百科中文词条文件下载

2 维基百科中文语料生成

2.1 提取 wiki_extractor

  • 词条文件解析:文件内容为 XML 格式,使用 xml.etree 解析
  • 提取结果:词条标题, 词条内容, 词条id

2.2 清洗 wiki_cleaner

  • 繁体转为简体:使用 opencc 转换为简体中文
  • 词条内容解析:使用 mwparserfromhell 解析并进行处理
  • 其他清洗规则:正则替换指定字符、去除空格、合并多个换行等

2.3 生成 wiki_generator

  • 读取词条文件:文件为 bz2 格式,使用 bz2file 读取词条文件
  • 提取词条数据:wiki_extractor
  • 生成语料文件:生成的文件格式为 jsonl 格式,每一行为一条语料数据,格式为:{"id": "词条id", "title": "词条标题", "content": "词条内容"}
AI搜集汇总
数据集介绍
main_image_url
构建方式
维基百科中文语料数据集的构建过程严谨而系统。首先,从维基百科官方提供的下载地址获取最新的中文词条文件,该文件以XML格式压缩存储。随后,通过XML解析工具提取词条的标题、内容和ID。在数据清洗阶段,繁体中文被转换为简体,并使用专门的Wikitext解析工具处理词条内容,去除不必要的格式和字符。最终,经过一系列的提取和清洗操作,生成格式为JSONL的语料文件,每条记录包含词条ID、标题和内容,确保数据的高质量和一致性。
特点
维基百科中文语料数据集具有显著的特点。首先,数据来源权威,确保了信息的准确性和广泛性。其次,数据经过繁简转换和Wikitext解析,使得内容更加标准化和易于处理。此外,数据集以JSONL格式存储,便于逐行读取和处理,适应多种自然语言处理任务的需求。最后,该数据集涵盖了丰富的主题和领域,为研究者提供了广泛的应用场景。
使用方法
维基百科中文语料数据集的使用方法简便而灵活。用户可以通过下载预处理好的JSONL文件,利用Python或其他编程语言逐行读取和解析数据。数据集的结构清晰,每条记录包含词条ID、标题和内容,便于进行文本分析、信息检索和机器学习等任务。此外,数据集的开放性和标准化格式,使得它可以轻松集成到各种自然语言处理框架和工具中,为研究者和开发者提供了极大的便利。
背景与挑战
背景概述
维基百科中文语料数据集的创建,标志着自然语言处理领域在多语言资源开发方面的重要进展。该数据集由维基百科中文词条文件生成,主要研究人员或机构通过解析和清洗维基百科的XML格式文件,提取并转换繁体中文为简体中文,最终生成结构化的语料文件。这一过程不仅丰富了中文自然语言处理的资源库,也为相关研究提供了高质量的文本数据,极大地推动了中文信息处理技术的发展。
当前挑战
维基百科中文语料数据集的构建过程中面临多项挑战。首先,解析维基百科的XML格式文件需要高效的算法和工具,以确保数据的准确提取。其次,繁体中文到简体中文的转换不仅涉及语言学的复杂性,还需处理多种方言和地区差异。此外,Wikitext格式的解析和处理增加了数据清洗的难度,需应用多种清洗规则以保证语料的纯净度。最后,生成结构化的语料文件要求高度的技术集成和数据管理能力,以确保每条语料的完整性和一致性。
常用场景
经典使用场景
维基百科中文语料数据集在自然语言处理领域中具有广泛的应用。其经典使用场景包括但不限于:构建大规模中文语料库,用于训练语言模型、词向量生成、文本分类、信息检索等任务。通过解析和清洗维基百科的词条内容,研究人员能够获取高质量的中文文本数据,从而提升各类自然语言处理模型的性能。
衍生相关工作
基于维基百科中文语料,衍生了许多经典的研究工作。例如,研究人员利用该数据集训练了多种中文预训练语言模型,如BERT、GPT等,这些模型在中文自然语言处理任务中表现出色。此外,还有学者基于此数据集开发了中文词向量模型,用于词义相似度计算和文本分类。这些工作不仅丰富了中文自然语言处理的工具库,还为后续研究提供了坚实的基础。
数据集最近研究
最新研究方向
在自然语言处理领域,维基百科中文语料的最新研究方向主要集中在语料的深度挖掘与应用上。研究者们致力于通过先进的文本分析技术,如深度学习模型和语义解析算法,来提取和分析维基百科中的丰富信息。这些研究不仅提升了中文文本处理的能力,还为跨语言信息检索、知识图谱构建以及智能问答系统等前沿应用提供了坚实的基础。此外,随着数据隐私和伦理问题的日益重要,如何在保证数据安全的前提下,高效利用维基百科语料进行研究,也成为了一个新兴的研究热点。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

Subway Dataset

该数据集包含了全球多个城市的地铁系统数据,包括车站信息、线路图、列车时刻表、乘客流量等。数据集旨在帮助研究人员和开发者分析和模拟城市交通系统,优化地铁运营和乘客体验。

www.kaggle.com 收录

RAVDESS

情感语音和歌曲 (RAVDESS) 的Ryerson视听数据库包含7,356个文件 (总大小: 24.8 GB)。该数据库包含24位专业演员 (12位女性,12位男性),以中性的北美口音发声两个词汇匹配的陈述。言语包括平静、快乐、悲伤、愤怒、恐惧、惊讶和厌恶的表情,歌曲则包含平静、快乐、悲伤、愤怒和恐惧的情绪。每个表达都是在两个情绪强度水平 (正常,强烈) 下产生的,另外还有一个中性表达。所有条件都有三种模态格式: 纯音频 (16位,48kHz .wav),音频-视频 (720p H.264,AAC 48kHz,.mp4) 和仅视频 (无声音)。注意,Actor_18没有歌曲文件。

OpenDataLab 收录

中国区域地面气象要素驱动数据集 v2.0(1951-2020)

中国区域地面气象要素驱动数据集(China Meteorological Forcing Data,以下简称 CMFD)是为支撑中国区域陆面、水文、生态等领域研究而研发的一套高精度、高分辨率、长时间序列数据产品。本页面发布的 CMFD 2.0 包含了近地面气温、气压、比湿、全风速、向下短波辐射通量、向下长波辐射通量、降水率等气象要素,时间分辨率为 3 小时,水平空间分辨率为 0.1°,时间长度为 70 年(1951~2020 年),覆盖了 70°E~140°E,15°N~55°N 空间范围内的陆地区域。CMFD 2.0 融合了欧洲中期天气预报中心 ERA5 再分析数据与气象台站观测数据,并在辐射、降水数据产品中集成了采用人工智能技术制作的 ISCCP-ITP-CNN 和 TPHiPr 数据产品,其数据精度较 CMFD 的上一代产品有显著提升。 CMFD 历经十余年的发展,其间发布了多个重要版本。2019 年发布的 CMFD 1.6 是完全采用传统数据融合技术制作的最后一个 CMFD 版本,而本次发布的 CMFD 2.0 则是 CMFD 转向人工智能技术制作的首个版本。此版本与 1.6 版具有相同的时空分辨率和基础变量集,但在其它诸多方面存在大幅改进。除集成了采用人工智能技术制作的辐射和降水数据外,在制作 CMFD 2.0 的过程中,研发团队尽可能采用单一来源的再分析数据作为输入并引入气象台站迁址信息,显著缓解了 CMFD 1.6 中因多源数据拼接和气象台站迁址而产生的虚假气候突变。同时,CMFD 2.0 数据的时间长度从 CMFD 1.6 的 40 年大幅扩展到了 70 年,并将继续向后延伸。CMFD 2.0 的网格空间范围虽然与 CMFD 1.6 相同,但其有效数据扩展到了中国之外,能够更好地支持跨境区域研究。为方便用户使用,CMFD 2.0 还在基础变量集之外提供了若干衍生变量,包括近地面相对湿度、雨雪分离降水产品等。此外,CMFD 2.0 摒弃了 CMFD 1.6 中通过 scale_factor 和 add_offset 参数将实型数据化为整型数据的压缩技术,转而直接将实型数据压缩存储于 NetCDF4 格式文件中,从而消除了用户使用数据时进行解压换算的困扰。 本数据集原定版本号为 1.7,但鉴于本数据集从输入数据到研制技术都较上一代数据产品有了大幅的改变,故将其版本号重新定义为 2.0。CMFD 2.0 的数据内容与此前宣传的 CMFD 1.7 基本一致,仅对 1983 年 7 月以后的向下短/长波辐射通量数据进行了更新,以修正其长期趋势存在的问题。2021 年至 2024 年的 CMFD 数据正在制作中,计划于 2025 年上半年发布,从而使 CMFD 2.0 延伸至 2024 年底。

国家青藏高原科学数据中心 收录

AFD-dataset

我们创建了迄今为止最大的亚洲人脸数据集,包含360,000张人脸图片,涉及2019个人。相比之下,第二大的亚洲人脸数据集CASIA-FaceV5仅包括2500张图片和500个人。

github 收录

Solar Radiation Data

该数据集包含全球多个地点的太阳辐射数据,涵盖了不同时间段和气象条件下的辐射强度。数据包括直接辐射、散射辐射和总辐射等指标,适用于太阳能资源评估和气候研究。

www.nrel.gov 收录