five

德国GTSRB数据集|交通标志识别数据集|机器学习数据集

收藏
github2020-04-21 更新2024-05-31 收录
交通标志识别
机器学习
下载链接:
https://github.com/LucyChen0228/DL-deeplearning-CV-computer-vision-traffic-signs-recognition-GTSRB-dataset
下载链接
链接失效反馈
资源简介:
德国GTSRB数据集,由于官网为ppm 格式,不太好进行操作,感谢一些前辈提供了pickle 格式的数据集。

The German GTSRB dataset, originally provided in PPM format on its official website, is not very convenient for direct manipulation. Fortunately, some predecessors have made available a version of the dataset in pickle format, which is more user-friendly.
创建时间:
2018-11-18
原始信息汇总

数据集概述

数据集信息

  • 名称:德国GTSRB数据集
  • 格式:原始为ppm格式,提供的是pickle格式

网络结构

  • 模型:卷积神经网络VGG16,额外添加了两层

图像预处理

  • 方法:采用了IMAGE NET竞赛中常用的图像去均值操作

模型保存与权重读取

  • 方法:使用KERAS框架中的model函数进行模型的保存、调用及权重读取

模型结构

  • 输入层:InputLayer,形状为(None, 224, 224, 3)
  • 卷积层:多个Conv2D层,参数数量从1792到2359808不等
  • 池化层:多个MaxPooling2D层
  • 展平层:Flatten,输出形状为(None, 25088)
  • 全连接层:Dense,输出形状为(None, 32)和(None, 43)
  • 总参数:15,518,955
  • 可训练参数:15,518,955
  • 非训练参数:0

权重张量列表

  • 卷积层权重:每个卷积层包含kernel和bias,形状从(3, 3, 3, 64)到(3, 3, 512, 512)
  • 全连接层权重:dense_1包含kernel和bias,形状为(25088, 32)和(32,);dense_2包含kernel和bias,形状为(32, 43)和(43,)

图片预处理对比

  • 原始图片大小:32323
  • Normalize后图片大小:2242243

训练策略

  • 优化算法:采用SGD算法,学习率为0.001
  • Batch Size影响:随着Batch Size增大,处理相同数据量的速度越快,但达到相同精度所需要的epoch数量增多
AI搜集汇总
数据集介绍
main_image_url
构建方式
德国GTSRB数据集的构建以卷积神经网络VGG16为基础,通过添加两层网络结构进行优化。图像预处理环节采用了IMAGE NET竞赛中的去均值操作,以提升模型训练的准确性。模型采用KERAS框架进行保存和权重读取,确保了训练结果的可复现性。
特点
该数据集以pickle格式存储,便于操作和处理。数据集包含了德国交通标志的图像,涵盖了多种交通标志类型,为交通标志识别研究提供了丰富的样本资源。此外,数据集经过精心设计,能够适应不同的网络结构和训练需求。
使用方法
使用该数据集时,用户可以通过model.summary()函数查看模型的概况。此外,用户可以加载pickle格式的数据集,并利用模型训练和测试。权重张量的列表提供了对模型参数的详细描述,有助于用户理解和调整模型。
背景与挑战
背景概述
德国GTSRB数据集,专注于交通标志识别领域,其创建旨在为研究人员提供一个标准化的数据集,以促进算法的开发与评估。该数据集由德国慕尼黑工业大学的研究团队于2011年构建,包含约50,000个交通标志图像,涵盖43个不同类别。GTSRB数据集的构建,对推动计算机视觉和深度学习技术在交通标志识别领域的应用与发展起到了重要作用,为相关研究提供了宝贵的实验资源。
当前挑战
该数据集在研究领域中面临的挑战主要包括:1)图像分类的挑战,由于交通标志的形状、大小、颜色和背景的多样性,以及光照和天气条件的影响,使得准确识别成为一项艰巨的任务;2)构建过程中的挑战,如数据集的标注一致性、图像的预处理和标准化,以及大规模数据集处理时计算资源的高需求等。此外,如何有效利用深度学习模型,特别是在卷积神经网络中的应用与优化,也是研究者必须面对的挑战。
常用场景
经典使用场景
德国GTSRB数据集作为交通标志识别领域的重要资源,其经典使用场景在于深度学习模型训练与验证。该数据集包含43种不同交通标志的图片,常用于训练卷积神经网络(CNN),例如VGG16结构,通过对图像进行预处理、模型构建、权重训练等步骤,实现对交通标志的准确识别。
解决学术问题
该数据集解决了交通标志识别中类别众多、形态各异所带来的分类难题,为学术界提供了标准化的数据基准。通过该数据集,研究者能够训练出具有较高泛化能力的模型,进而提高交通标志识别的准确率和鲁棒性,对于自动驾驶系统安全性的提升具有重要意义。
衍生相关工作
德国GTSRB数据集的广泛应用衍生出了众多相关工作,包括但不限于改进的神经网络结构设计、更高效的图像预处理方法、以及结合深度学习与其他传统图像处理技术的混合方案,推动了交通标志识别技术的进步。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

中国区域交通网络数据集

该数据集包含中国各区域的交通网络信息,包括道路、铁路、航空和水路等多种交通方式的网络结构和连接关系。数据集详细记录了各交通节点的位置、交通线路的类型、长度、容量以及相关的交通流量信息。

data.stats.gov.cn 收录

中国1km分辨率逐月降水量数据集(1901-2023)

该数据集为中国逐月降水量数据,空间分辨率为0.0083333°(约1km),时间为1901.1-2023.12。数据格式为NETCDF,即.nc格式。该数据集是根据CRU发布的全球0.5°气候数据集以及WorldClim发布的全球高分辨率气候数据集,通过Delta空间降尺度方案在中国降尺度生成的。并且,使用496个独立气象观测点数据进行验证,验证结果可信。本数据集包含的地理空间范围是全国主要陆地(包含港澳台地区),不含南海岛礁等区域。为了便于存储,数据均为int16型存于nc文件中,降水单位为0.1mm。 nc数据可使用ArcMAP软件打开制图; 并可用Matlab软件进行提取处理,Matlab发布了读入与存储nc文件的函数,读取函数为ncread,切换到nc文件存储文件夹,语句表达为:ncread (‘XXX.nc’,‘var’, [i j t],[leni lenj lent]),其中XXX.nc为文件名,为字符串需要’’;var是从XXX.nc中读取的变量名,为字符串需要’’;i、j、t分别为读取数据的起始行、列、时间,leni、lenj、lent i分别为在行、列、时间维度上读取的长度。这样,研究区内任何地区、任何时间段均可用此函数读取。Matlab的help里面有很多关于nc数据的命令,可查看。数据坐标系统建议使用WGS84。

国家青藏高原科学数据中心 收录

AISHELL/AISHELL-1

Aishell是一个开源的中文普通话语音语料库,由北京壳壳科技有限公司发布。数据集包含了来自中国不同口音地区的400人的录音,录音在安静的室内环境中使用高保真麦克风进行,并下采样至16kHz。通过专业的语音标注和严格的质量检查,手动转录的准确率超过95%。该数据集免费供学术使用,旨在为语音识别领域的新研究人员提供适量的数据。

hugging_face 收录

中国气象数据

本数据集包含了中国2023年1月至11月的气象数据,包括日照时间、降雨量、温度、风速等关键数据。通过这些数据,可以深入了解气象现象对不同地区的影响,并通过可视化工具揭示中国的气温分布、降水情况、风速趋势等。

github 收录

中国区域地面气象要素驱动数据集 v2.0(1951-2020)

中国区域地面气象要素驱动数据集(China Meteorological Forcing Data,以下简称 CMFD)是为支撑中国区域陆面、水文、生态等领域研究而研发的一套高精度、高分辨率、长时间序列数据产品。本页面发布的 CMFD 2.0 包含了近地面气温、气压、比湿、全风速、向下短波辐射通量、向下长波辐射通量、降水率等气象要素,时间分辨率为 3 小时,水平空间分辨率为 0.1°,时间长度为 70 年(1951~2020 年),覆盖了 70°E~140°E,15°N~55°N 空间范围内的陆地区域。CMFD 2.0 融合了欧洲中期天气预报中心 ERA5 再分析数据与气象台站观测数据,并在辐射、降水数据产品中集成了采用人工智能技术制作的 ISCCP-ITP-CNN 和 TPHiPr 数据产品,其数据精度较 CMFD 的上一代产品有显著提升。 CMFD 历经十余年的发展,其间发布了多个重要版本。2019 年发布的 CMFD 1.6 是完全采用传统数据融合技术制作的最后一个 CMFD 版本,而本次发布的 CMFD 2.0 则是 CMFD 转向人工智能技术制作的首个版本。此版本与 1.6 版具有相同的时空分辨率和基础变量集,但在其它诸多方面存在大幅改进。除集成了采用人工智能技术制作的辐射和降水数据外,在制作 CMFD 2.0 的过程中,研发团队尽可能采用单一来源的再分析数据作为输入并引入气象台站迁址信息,显著缓解了 CMFD 1.6 中因多源数据拼接和气象台站迁址而产生的虚假气候突变。同时,CMFD 2.0 数据的时间长度从 CMFD 1.6 的 40 年大幅扩展到了 70 年,并将继续向后延伸。CMFD 2.0 的网格空间范围虽然与 CMFD 1.6 相同,但其有效数据扩展到了中国之外,能够更好地支持跨境区域研究。为方便用户使用,CMFD 2.0 还在基础变量集之外提供了若干衍生变量,包括近地面相对湿度、雨雪分离降水产品等。此外,CMFD 2.0 摒弃了 CMFD 1.6 中通过 scale_factor 和 add_offset 参数将实型数据化为整型数据的压缩技术,转而直接将实型数据压缩存储于 NetCDF4 格式文件中,从而消除了用户使用数据时进行解压换算的困扰。 本数据集原定版本号为 1.7,但鉴于本数据集从输入数据到研制技术都较上一代数据产品有了大幅的改变,故将其版本号重新定义为 2.0。CMFD 2.0 的数据内容与此前宣传的 CMFD 1.7 基本一致,仅对 1983 年 7 月以后的向下短/长波辐射通量数据进行了更新,以修正其长期趋势存在的问题。2021 年至 2024 年的 CMFD 数据正在制作中,计划于 2025 年上半年发布,从而使 CMFD 2.0 延伸至 2024 年底。

国家青藏高原科学数据中心 收录