five

Data from: Conquering the world in leaps and bounds: hopping locomotion in toads is actually bounding|动物行为学数据集|运动学数据集

收藏
Mendeley Data2024-06-25 更新2024-06-27 收录
动物行为学
运动学
下载链接:
https://datadryad.org/stash/dataset/doi:10.5061/dryad.300fq
下载链接
链接失效反馈
资源简介:
1.While most frogs maximize jump distance as an escape behavior, toads have traded jump distance for endurance with a strategy of hopping repeatedly. This strategy has enabled toads to expand across the continents as one of the most diverse groups of anurans. Multiple studies have revealed physiological endurance adaptations for sustained hopping in toads, however, the kinematics of their sequential hopping behavior, per se, has not been studied. 2.We compared kinematics and forces of single hops and multiple hopping sequences and quantified field performance of hopping behaviors in free ranging toads of three species and discovered a novel aspect of locomotion adaptation that adds another facet to their exceptional terrestrial locomotor abilities. 3.We found that bouts of repeated hopping are actually a series of bounding strides where toads rotate on their hands and then land on their extended their feet and jump again without stopping. In addition, free-ranging toads appear to use bounding locomotion more frequently than single hops. Bounding in toads has the advantage of maintaining velocity and producing longer jump distances. In comparison to single hops, cyclic bounding steps reduce energy expenditure and appear to provide limb loading dynamics better suited for potential cycling of elastic energy from stride to stride than would be possible with repeated single hops. 4.This is the first case of the common use of a bounding gait outside of mammals. Bounding adds a key terrestrial locomotor trait to the toad's phenotype that may help explain their history of global expansion and the challenges to modern faunas as introduced toads rapidly invade new ecosystems today.
创建时间:
2023-06-28
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4099个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

CE-CSL

CE-CSL数据集是由哈尔滨工程大学智能科学与工程学院创建的中文连续手语数据集,旨在解决现有数据集在复杂环境下的局限性。该数据集包含5,988个从日常生活场景中收集的连续手语视频片段,涵盖超过70种不同的复杂背景,确保了数据集的代表性和泛化能力。数据集的创建过程严格遵循实际应用导向,通过收集大量真实场景下的手语视频材料,覆盖了广泛的情境变化和环境复杂性。CE-CSL数据集主要应用于连续手语识别领域,旨在提高手语识别技术在复杂环境中的准确性和效率,促进聋人与听人社区之间的无障碍沟通。

arXiv 收录

PASCAL VOC 2007

这个挑战的目标是从现实场景中的许多视觉对象类别中识别对象(即不是预先分割的对象)。它基本上是一个监督学习问题,因为它提供了一组标记图像的训练集。已选择的 20 个对象类别是: 人:人 动物:鸟、猫、牛、狗、马、羊 交通工具:飞机、自行车、船、公共汽车、汽车、摩托车、火车 室内:瓶子、椅子、餐桌、盆栽、沙发、电视/显示器 将有两个主要比赛和两个较小规模的“品酒师”比赛。内容:提供的训练数据由一组图像组成;每个图像都有一个注释文件,为图像中存在的 20 个类别之一中的每个对象提供一个边界框和对象类别标签。请注意,来自多个类的多个对象可能出现在同一图像中。

OpenDataLab 收录

DIV2K

displayName: DIV2K labelTypes: [] license: - DIV2K Custom mediaTypes: - Image paperUrl: https://doi.org/10.1109/CVPRW.2017.150 publishDate: "2017" publishUrl: https://data.vision.ee.ethz.ch/cvl/DIV2K/ publisher: - ETH Zurich tags: - RGB Image taskTypes: - Image Super-resolution --- # 数据集介绍 ## 简介 DIV2K数据集分为: 列车数据: 从800高清高分辨率图像开始,我们获得相应的低分辨率图像,并为2、3和4个降尺度因子提供高分辨率和低分辨率图像 验证数据: 100高清晰度高分辨率图像用于生成低分辨率对应图像,低分辨率从挑战开始提供,并用于参与者从验证服务器获得在线反馈; 当挑战的最后阶段开始时,高分辨率图像将被释放。 测试数据: 100多样的图像用于生成低分辨率的相应图像; 参与者将在最终评估阶段开始时收到低分辨率图像,并在挑战结束并确定获胜者后宣布结果。 ## 引文 ``` @inproceedings{agustsson2017ntire, title={Ntire 2017 challenge on single image super-resolution: Dataset and study}, author={Agustsson, Eirikur and Timofte, Radu}, booktitle={Proceedings of the IEEE conference on computer vision and pattern recognition workshops}, pages={126--135}, year={2017} } ``` ## Download dataset :modelscope-code[]{type="git"}

魔搭社区 收录

GPQA

GPQA是一个由生物学、物理学和化学领域的专家编写的448个多选题数据集。该数据集的特点是问题质量高且极其困难,即使是具有博士学位或在读博士的专家也仅能达到65%的准确率,而高技能的非专家验证者仅有34%的准确率。数据集旨在用于研究未来AI系统在帮助解答非常困难问题时的可扩展监督方法,特别是在开发新科学知识时。

arXiv 收录

全国兴趣点(POI)数据

  POI(Point of Interest),即兴趣点,一个POI可以是餐厅、超市、景点、酒店、车站、停车场等。兴趣点通常包含四方面信息,分别为名称、类别、坐标、分类。其中,分类一般有一级分类和二级分类,每个分类都有相应的行业的代码和名称一一对应。  POI包含的信息及其衍生信息主要包含三个部分:

CnOpenData 收录