H36M (Human3.6M)|人体运动分析数据集|计算机视觉数据集
收藏
- Human3.6M数据集首次发表,由Ionescu等人提出,旨在为人体动作捕捉和姿态估计提供一个大规模的基准数据集。
- Human3.6M数据集首次应用于深度学习领域,特别是用于训练和评估人体姿态估计模型,推动了相关算法的发展。
- Human3.6M数据集成为人体姿态估计和动作识别领域的重要基准,被广泛用于评估和比较不同算法的性能。
- 随着深度学习技术的进步,Human3.6M数据集被用于开发更复杂的人体姿态估计和动作预测模型,进一步提升了该领域的研究水平。
- Human3.6M数据集继续作为人体动作分析和计算机视觉研究的关键资源,支持了多项前沿研究和技术创新。
Psych-101
Psych-101数据集是一个自然语言转录的心理学实验数据集,包含了160个心理学实验的逐次数据,涉及60,092名参与者,共记录了10,681,650次选择。数据集中的选择信息被封装在“<<”和“>>”标记中。数据集的主要用途是研究人类认知的基础模型。数据集提供了详细的实验文本、实验标识符和参与者标识符。数据集的语言为英语,使用Apache 2.0许可证。
huggingface 收录
CKMImageNet
CKMImageNet是一个旨在推进AI驱动的环境感知无线通信和感知研究的综合数据集,由东南大学国家移动通信研究实验室提供。该数据集整合了位置特定的通道知识数据、高保真环境地图及其视觉表示。CKMImageNet支持多种AI驱动的方法进行通道知识图(CKM)构建,包含监督和非监督、判别和生成AI方法。数据集利用先进的射线追踪技术构建,确保了高保真度和环境准确性。它为AI模型学习环境感知传播模式提供了基础工具,可应用于6G系统的网络规划、资源分配等领域。
arXiv 收录
HIT-UAV
HIT-UAV数据集包含2898张红外热成像图像,这些图像从43,470帧无人机拍摄的画面中提取。数据集涵盖了多种场景,如学校、停车场、道路和游乐场,在不同的光照条件下,包括白天和夜晚。
github 收录
OCRBench v2
OCRBench v2 是由华中科技大学、阿德莱德大学、华南理工大学和字节跳动联合创建的一个大规模双语文本中心基准数据集。该数据集包含10,000条经过人工验证的问答对,涵盖了31种不同的场景,如街景、收据、公式、图表等。数据集通过23个任务评估LMMs在文本识别、文本定位、手写内容提取和逻辑推理等方面的能力。OCRBench v2 的创建过程包括从81个学术数据集中手动筛选数据,并补充私有数据以确保场景的多样性。该数据集主要用于评估LMMs在复杂OCR任务中的性能,旨在解决现有基准在任务多样性、上下文复杂性和规模上的不足。
arXiv 收录
DeepMIMO dataset
DeepMIMO数据集是一个公开的数据集生成框架,用于模拟多种无线通信环境。该数据集特别适用于大规模MIMO和毫米波应用,通过精确的射线追踪数据构建信道模型。数据集包含多个场景,每个场景都有详细的参数设置,如频率、带宽、基站天线配置等。这些参数可以根据研究需求进行调整,以生成符合特定研究目的的数据集。DeepMIMO数据集广泛用于无线通信系统的定位和性能评估研究,特别是在5G及未来通信技术中。
arXiv 收录