Operations valley bureau, West valley area, activities reports, 1992-02/1992-06
收藏SAVEE
SAVEE(Surrey Audio-Visual Expressed Emotion)数据集包含480个音频和视频文件,由4名男性英语母语者在7种不同的情绪状态下录制。这些情绪包括愤怒、高兴、悲伤、惊讶、恐惧、厌恶和中性。每个文件的时长约为3秒,总时长约为24分钟。该数据集主要用于情感识别研究。
kahlan.eps.surrey.ac.uk 收录
FACED
FACED数据集是由清华大学脑与智能实验室和智能技术与系统国家重点实验室共同创建,包含从123名参与者收集的32通道EEG信号,用于情感计算研究。数据集通过记录参与者观看28个情感诱发视频片段时的EEG信号构建,旨在通过EEG信号分析情感状态。创建过程中,数据经过标准化和统一预处理,设计了四个EEG分类任务。该数据集主要应用于情感识别和脑机接口领域,旨在解决情感计算中的分类问题,提高情感识别的准确性和效率。
arXiv 收录
乳腺癌患者检查结果
该数据采集来自乳腺癌随访微信小程序,共采集499例患者肿瘤分级、分期、血生化检测等指标,目的在于通过监测乳腺癌患者指标的高低对患者进行预后风险评估,通过指标的高低及时发现复发征兆并及时采取措施,同时可为复发风险提供参考。
国家人口健康科学数据中心 收录
RAVDESS
情感语音和歌曲 (RAVDESS) 的Ryerson视听数据库包含7,356个文件 (总大小: 24.8 GB)。该数据库包含24位专业演员 (12位女性,12位男性),以中性的北美口音发声两个词汇匹配的陈述。言语包括平静、快乐、悲伤、愤怒、恐惧、惊讶和厌恶的表情,歌曲则包含平静、快乐、悲伤、愤怒和恐惧的情绪。每个表达都是在两个情绪强度水平 (正常,强烈) 下产生的,另外还有一个中性表达。所有条件都有三种模态格式: 纯音频 (16位,48kHz .wav),音频-视频 (720p H.264,AAC 48kHz,.mp4) 和仅视频 (无声音)。注意,Actor_18没有歌曲文件。
OpenDataLab 收录
MNIST数据集
数据规模 训练集:60,000 张手写数字图像(28×28 像素灰度图)及对应标签 34。 测试集:10,000 张图像与标签,用于模型评估 68。 数据来源 由美国国家标准与技术研究院(NIST)收集,50% 样本来自高中生手写,50% 来自人口普查局工作人员 48。 经 Yann LeCun 团队标准化处理,成为机器学习基准数据集 1011。
阿里云天池 收录
