five

Learning Geography with Visual Tools in Geography Fieldwork|地理教育数据集|可视化工具数据集

收藏
Mendeley Data2024-03-27 更新2024-06-28 收录
地理教育
可视化工具
下载链接:
https://ssh.datastations.nl/citation?persistentId=doi:10.17026/dans-x76-jjqh
下载链接
链接失效反馈
资源简介:
Chapter 2 of this research includes an online survey on the use of ICTs and visualization tools in real undergraduate human geography fieldwork programs. The survey was executed around the year of 2014-2015 through Survey Monkey.The invitation of this survey was sent through emails to approximately 80 human geography fieldwork leaders as well as several authors of geography-fieldwork-related published papers. In the end, there were 40 respondents and 34 of them answered that they have ever been involved in or carried out a human geography fieldwork and then they were continuously exposed to the rest of the survey. But the response rates of most subsequent questions were around 50% or less.
创建时间:
2023-06-28
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4099个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

MeSH

MeSH(医学主题词表)是一个用于索引和检索生物医学文献的标准化词汇表。它包含了大量的医学术语和概念,用于描述医学文献中的主题和内容。MeSH数据集包括主题词、副主题词、树状结构、历史记录等信息,广泛应用于医学文献的分类和检索。

www.nlm.nih.gov 收录

Google Scholar

Google Scholar是一个学术搜索引擎,旨在检索学术文献、论文、书籍、摘要和文章等。它涵盖了广泛的学科领域,包括自然科学、社会科学、艺术和人文学科。用户可以通过关键词搜索、作者姓名、出版物名称等方式查找相关学术资源。

scholar.google.com 收录

suno

该数据集包含由人工智能生成的659,788首歌曲的元数据,这些歌曲由suno.com平台生成。数据集是多语言的,主要语言为英语,但也包含日语和其他语言的歌词和标题。每个歌曲的元数据包括唯一标识符、视频和音频URL、封面图像URL、AI模型版本、生成状态、创作者信息等。数据集根据CC0许可证公开,允许任何用途的使用、修改和分发。

huggingface 收录

PAN-X

该数据集是Cross-lingual TRansfer Evaluation of Multilingual Encoders (XTREME)基准的一部分,名为WikiANN或PAN-X。它包含多种语言的维基百科文章,特别是瑞士四种最常用语言:德语、法语、意大利语和英语。每篇文章都使用LOC(位置)、PER(人物)和ORG(组织)标签在‘inside-outside-beginning’(IOB2)格式下进行了标注。

github 收录

ActivityNet Captions

The ActivityNet Captions dataset is built on ActivityNet v1.3 which includes 20k YouTube untrimmed videos with 100k caption annotations. The videos are 120 seconds long on average. Most of the videos contain over 3 annotated events with corresponding start/end time and human-written sentences, which contain 13.5 words on average. The number of videos in train/validation/test split is 10024/4926/5044, respectively.

Papers with Code 收录