five

pleisto/wikipedia-cn-20230720-filtered|中文文本数据集|预训练数据集数据集

收藏
hugging_face2023-07-23 更新2024-03-04 收录
中文文本
预训练数据集
下载链接:
https://hf-mirror.com/datasets/pleisto/wikipedia-cn-20230720-filtered
下载链接
链接失效反馈
资源简介:
本数据集基于中文维基2023年7月20日的dump存档。作为一项以数据为中心的工作,本数据集仅保留了254,547条质量较高的词条内容。具体而言:过滤了Template, Category, Wikipedia, File, Topic, Portal, MediaWiki, Draft, Help等特殊类型的词条;使用启发式的方法和自有的NLU模型过滤了一部分质量较低的词条;过滤了一部分内容较为敏感或存在争议性的词条;进行了简繁转换和习惯用词转换,确保符合中国大陆地区的习惯用词。

本数据集基于中文维基2023年7月20日的dump存档。作为一项以数据为中心的工作,本数据集仅保留了254,547条质量较高的词条内容。具体而言:过滤了Template, Category, Wikipedia, File, Topic, Portal, MediaWiki, Draft, Help等特殊类型的词条;使用启发式的方法和自有的NLU模型过滤了一部分质量较低的词条;过滤了一部分内容较为敏感或存在争议性的词条;进行了简繁转换和习惯用词转换,确保符合中国大陆地区的习惯用词。
提供机构:
pleisto
原始信息汇总

数据集概述

基本信息

  • 许可证: cc-by-sa-3.0
  • 任务类别: 文本生成
  • 语言: 中文
  • 标签: 维基百科
  • 数据集大小: 100K<n<1M

数据来源与处理

  • 来源: 中文维基百科2023年7月20日的dump存档
  • 保留条目数: 254,547条(中文描述)/ 254,574条(英文描述)
  • 过滤内容:
    • 排除了Template, Category, Wikipedia, File, Topic, Portal, MediaWiki, Draft, Help等特殊类型的词条
    • 使用启发式方法和自有的NLU模型过滤了质量较低的词条
    • 排除了内容敏感或存在争议性的词条
  • 语言处理:
    • 进行了简繁转换
    • 进行了习惯用词转换,以符合中国大陆地区的习惯用词
AI搜集汇总
数据集介绍
main_image_url
构建方式
本数据集基于2023年7月20日的中文维基百科dump存档,经过精心筛选与处理,最终保留了254,547条高质量词条。构建过程中,首先排除了Template、Category、Wikipedia等特殊类型的词条,随后采用启发式方法与自有的自然语言理解(NLU)模型,进一步过滤了质量较低的词条。此外,为确保内容的适宜性,还剔除了部分敏感或存在争议性的词条,并进行了简繁转换与习惯用词的调整,以符合中国大陆地区的语言习惯。
特点
该数据集显著特点在于其高质量与适用性。经过多重过滤与优化,数据集不仅去除了低质量与特殊类型的词条,还特别关注了内容的敏感性与争议性,确保了数据的安全性与可靠性。此外,通过简繁转换与习惯用词的调整,数据集更贴近中国大陆地区的语言使用习惯,为相关研究与应用提供了更为精准的语言资源。
使用方法
该数据集适用于多种自然语言处理任务,特别是文本生成领域。用户可直接下载数据集,利用其中的高质量词条进行模型训练或验证。由于数据集已进行简繁转换与习惯用词调整,用户在使用时无需额外处理语言差异问题,可直接应用于中文相关的研究与开发项目中。此外,数据集的过滤机制确保了内容的高质量与安全性,适合用于需要高精度语言数据的场景。
背景与挑战
背景概述
在自然语言处理领域,高质量的文本数据集对于模型的训练和评估至关重要。pleisto/wikipedia-cn-20230720-filtered数据集正是基于这一需求,由专业团队于2023年7月20日从中文维基百科的dump存档中精心筛选而成。该数据集的核心研究问题在于如何从海量信息中提取出高质量、无争议且符合特定语言习惯的文本内容,以支持文本生成等任务。这一数据集的创建不仅提升了中文自然语言处理的数据质量,也为相关领域的研究提供了坚实的基础。
当前挑战
构建pleisto/wikipedia-cn-20230720-filtered数据集面临多项挑战。首先,如何从维基百科的众多词条中筛选出高质量内容,需要复杂的启发式方法和自然语言理解模型的支持。其次,处理简繁转换和习惯用词的差异,确保数据集的通用性和适用性,也是一项技术难题。此外,过滤敏感或争议性内容,确保数据集的合规性和安全性,更是对数据处理技术的严峻考验。这些挑战不仅影响了数据集的构建过程,也对其在实际应用中的效果产生了深远影响。
常用场景
经典使用场景
在自然语言处理领域,pleisto/wikipedia-cn-20230720-filtered数据集被广泛用于文本生成任务。其高质量的中文维基词条内容为模型训练提供了丰富的语料资源,尤其适用于构建大规模预训练语言模型,如BERT、GPT等。通过该数据集,研究者能够有效提升模型在中文文本生成、摘要提取和问答系统等任务中的表现。
解决学术问题
该数据集解决了中文自然语言处理领域中高质量语料稀缺的问题。通过精心筛选和处理,它为学术界提供了一个结构化、高质量的中文文本资源,有助于推动中文语言模型的研究与应用。此外,数据集的简繁转换和习惯用词转换功能,确保了语料的通用性和适用性,为跨地区语言研究提供了便利。
衍生相关工作
基于pleisto/wikipedia-cn-20230720-filtered数据集,研究者们开发了多种中文语言模型和应用。例如,有研究团队利用该数据集训练了高性能的中文BERT模型,显著提升了中文文本分类和情感分析的准确性。此外,该数据集还被用于构建中文知识图谱,为智能问答系统和知识推理提供了坚实的基础。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4099个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

中国区域地面气象要素驱动数据集 v2.0(1951-2024)

中国区域地面气象要素驱动数据集(China Meteorological Forcing Data,以下简称 CMFD)是为支撑中国区域陆面、水文、生态等领域研究而研发的一套高精度、高分辨率、长时间序列数据产品。本页面发布的 CMFD 2.0 包含了近地面气温、气压、比湿、全风速、向下短波辐射通量、向下长波辐射通量、降水率等气象要素,时间分辨率为 3 小时,水平空间分辨率为 0.1°,时间长度为 74 年(1951~2024 年),覆盖了 70°E~140°E,15°N~55°N 空间范围内的陆地区域。CMFD 2.0 融合了欧洲中期天气预报中心 ERA5 再分析数据与气象台站观测数据,并在辐射、降水数据产品中集成了采用人工智能技术制作的 ISCCP-ITP-CNN 和 TPHiPr 数据产品,其数据精度较 CMFD 的上一代产品有显著提升。 CMFD 历经十余年的发展,其间发布了多个重要版本。2019 年发布的 CMFD 1.6 是完全采用传统数据融合技术制作的最后一个 CMFD 版本,而本次发布的 CMFD 2.0 则是 CMFD 转向人工智能技术制作的首个版本。此版本与 1.6 版具有相同的时空分辨率和基础变量集,但在其它诸多方面存在大幅改进。除集成了采用人工智能技术制作的辐射和降水数据外,在制作 CMFD 2.0 的过程中,研发团队尽可能采用单一来源的再分析数据作为输入并引入气象台站迁址信息,显著缓解了 CMFD 1.6 中因多源数据拼接和气象台站迁址而产生的虚假气候突变。同时,CMFD 2.0 数据的时间长度从 CMFD 1.6 的 40 年大幅扩展到了 74 年,并将继续向后延伸。CMFD 2.0 的网格空间范围虽然与 CMFD 1.6 相同,但其有效数据扩展到了中国之外,能够更好地支持跨境区域研究。为方便用户使用,CMFD 2.0 还在基础变量集之外提供了若干衍生变量,包括近地面相对湿度、雨雪分离降水产品等。此外,CMFD 2.0 摒弃了 CMFD 1.6 中通过 scale_factor 和 add_offset 参数将实型数据化为整型数据的压缩技术,转而直接将实型数据压缩存储于 NetCDF4 格式文件中,从而消除了用户使用数据时进行解压换算的困扰。 本数据集原定版本号为 1.7,但鉴于本数据集从输入数据到研制技术都较上一代数据产品有了大幅的改变,故将其版本号重新定义为 2.0。

国家青藏高原科学数据中心 收录

LIDC-IDRI

LIDC-IDRI 数据集包含来自四位经验丰富的胸部放射科医师的病变注释。 LIDC-IDRI 包含来自 1010 名肺部患者的 1018 份低剂量肺部 CT。

OpenDataLab 收录

PCLT20K

PCLT20K数据集是由湖南大学等机构创建的一个大规模PET-CT肺癌肿瘤分割数据集,包含来自605名患者的21,930对PET-CT图像,所有图像都带有高质量的像素级肿瘤区域标注。该数据集旨在促进医学图像分割研究,特别是在PET-CT图像中肺癌肿瘤的分割任务。

arXiv 收录

学生课堂行为数据集 (SCB-dataset3)

学生课堂行为数据集(SCB-dataset3)由成都东软学院创建,包含5686张图像和45578个标签,重点关注六种行为:举手、阅读、写作、使用手机、低头和趴桌。数据集覆盖从幼儿园到大学的不同场景,通过YOLOv5、YOLOv7和YOLOv8算法评估,平均精度达到80.3%。该数据集旨在为学生行为检测研究提供坚实基础,解决教育领域中学生行为数据集的缺乏问题。

arXiv 收录

GTEx (Genotype-Tissue Expression)

GTEx数据集包含了来自多个组织和器官的基因表达数据,旨在研究基因型与组织特异性表达之间的关系。数据集包括基因表达谱、基因型信息、组织样本的详细描述等。

gtexportal.org 收录