Sea Around Us Project|渔业数据集|海洋生态系统数据集
收藏
- Sea Around Us Project由加拿大不列颠哥伦比亚大学的Daniel Pauly教授发起,旨在研究全球渔业对海洋生态系统的影响。
- 项目首次发布全球渔业数据库,涵盖了1950年至1999年的渔业数据,为全球渔业研究提供了重要数据支持。
- Sea Around Us Project与联合国粮食及农业组织(FAO)合作,进一步扩展和更新了渔业数据,涵盖了更多的国家和海洋区域。
- 项目发布了《全球渔业报告》,详细分析了全球渔业资源的利用情况及其对海洋生态系统的影响。
- Sea Around Us Project推出了新的在线数据平台,使得全球研究人员和政策制定者能够更方便地访问和分析渔业数据。
- 项目开始关注气候变化对渔业资源的影响,并发布了相关研究报告,强调了气候变化对海洋生态系统的潜在威胁。
- Sea Around Us Project继续扩展其数据库,涵盖了更多的年份和区域,并发布了关于可持续渔业管理的最新研究成果。
- 1The Sea Around Us Project: Quantifying and Mapping Global FisheriesUniversity of British Columbia · 2003年
- 2Global Marine Fisheries: The Importance of Data and Science for Sustainable ManagementUniversity of British Columbia · 2018年
- 3The Impact of Global Fisheries on Marine EcosystemsUniversity of British Columbia · 2019年
- 4Rebuilding Global FisheriesUniversity of British Columbia · 2009年
- 5Fisheries: The Sea Around Us ProjectUniversity of British Columbia · 2003年
HazyDet
HazyDet是由解放军工程大学等机构创建的一个大规模数据集,专门用于雾霾场景下的无人机视角物体检测。该数据集包含383,000个真实世界实例,收集自自然雾霾环境和正常场景中人工添加的雾霾效果,以模拟恶劣天气条件。数据集的创建过程结合了深度估计和大气散射模型,确保了数据的真实性和多样性。HazyDet主要应用于无人机在恶劣天气条件下的物体检测,旨在提高无人机在复杂环境中的感知能力。
arXiv 收录
coin_001_sample
这是一个包含180张精心拍摄的钱币图像的数据集,每张图像都采用极简摄影技术,以展示货币的视觉和触觉特性。数据集中的图像以PNG格式存储,拥有512x512的分辨率和170 dpi的清晰度,每个图像都配有至少40个文本标签。
huggingface 收录
中国逐日格点降水数据集V2(1960–2024,0.1°)
CHM_PRE V2数据集是一套高精度的中国大陆逐日格点降水数据集。该数据集基于1960年至今共3476个观测站的长期日降水观测数据,并纳入11个降水相关变量,用于表征降水的相关性。数据集采用改进的反距离加权方法,并结合基于机器学习的LGBM算法构建。CHM_PRE V2与现有的格点降水数据集(包括CHM_PRE V1、GSMaP、IMERG、PERSIANN-CDR和GLDAS)表现出良好的时空一致性。数据集基于63,397个高密度自动雨量站2015–2019年的观测数据进行验证,发现该数据集显著提高了降水测量精度,降低了降水事件的高估,为水文建模和气候评估提供了可靠的基础。CHM_PRE V2 数据集提供分辨率为0.1°的逐日降水数据,覆盖整个中国大陆(18°N–54°N,72°E–136°E)。该数据集涵盖1960–2024年,并将每年持续更新。日值数据以NetCDF格式提供,为了方便用户,我们还提供NetCDF和GeoTIFF格式的年度和月度总降水数据。
国家青藏高原科学数据中心 收录
TCIA: The Cancer Imaging Archive
TCIA: The Cancer Imaging Archive 是一个公开的癌症影像数据库,包含多种癌症类型的影像数据,如乳腺癌、肺癌、脑癌等。数据集还包括相关的临床数据和生物标记物信息,旨在支持癌症研究和临床应用。
www.cancerimagingarchive.net 收录
coins-dataset
一个按面额分类的欧元硬币图像数据集,数据结构适合使用Keras的`ImageDataGenerator.flow_from_directory()`方法读取。源图像采用A4大小的白色背景顶部拍摄,通过`extract.py`脚本进行后期处理,以隔离单个硬币并标准化大小,然后进行手动分类。
github 收录