EventPAR
收藏arXiv2025-04-14 更新2025-04-17 收录
下载链接:
https://github.com/EventAHU/OpenPAR
下载链接
链接失效反馈资源简介:
EventPAR是一个由安徽大学计算机科学与技术学院和人工智能学院创建的大型多模态行人属性识别数据集。该数据集包含10万对配对的RGB帧和事件流,涵盖了与行人外观相关的50个属性以及六种人类情感属性。数据是在多种场景、多样季节以及不同光照条件下收集的,旨在模拟真实世界中的复杂行人属性识别挑战。数据集还采用了对抗性攻击技术增加了难度,以提高行人属性识别技术的鲁棒性。
EventPAR is a large-scale multimodal pedestrian attribute recognition dataset developed by the School of Computer Science and Technology and the School of Artificial Intelligence of Anhui University. This dataset contains 100,000 paired RGB frames and event streams, covering 50 attributes related to pedestrian appearance and six human emotional attributes. The data was collected under diverse scenarios, various seasons and different lighting conditions, aiming to simulate the complex challenges of pedestrian attribute recognition in real-world environments. Additionally, adversarial attack techniques are applied to the dataset to increase its difficulty, thus enhancing the robustness of pedestrian attribute recognition technologies.
提供机构:
安徽大学计算机科学与技术学院,安徽大学人工智能学院
创建时间:
2025-04-14
AI搜集汇总
数据集介绍

构建方式
EventPAR数据集的构建采用了DVS346事件相机进行数据采集,同步获取时空对齐的多模态数据,包括可见光图像和事件流。数据采集过程历时数月,覆盖了从夏季到冬季的不同季节,确保了数据的多样性和广泛性。数据集包含10万对RGB-Event样本,标注了50个属性,涵盖外观和六种人类情感维度。此外,数据集还引入了数据质量退化策略,如光照变化、随机遮挡、模糊和噪声等,以评估模型在复杂环境下的鲁棒性。
使用方法
EventPAR数据集的使用方法包括多模态数据的对齐和融合。研究人员可以通过RGB图像和事件流的互补信息提升行人属性识别的准确性和鲁棒性。数据集提供了详细的标注和基准测试结果,支持18种主流PAR模型的复现和比较。使用该数据集时,建议采用类似论文中提出的RWKV视觉编码器和非对称RWKV融合模块,以充分利用事件流的高动态范围和高时间分辨率特性。
背景与挑战
背景概述
EventPAR数据集由安徽大学计算机科学与技术学院的研究团队于2025年提出,旨在解决传统基于RGB相机的行人属性识别方法在光照敏感性和运动模糊等方面的局限性。该数据集首次融合了RGB与事件相机数据,包含10万组对齐的多模态样本,覆盖50种外观与情感属性。作为首个大规模多模态行人属性识别基准,EventPAR通过引入情感维度和跨季节场景数据,显著拓展了行人分析的研究边界,为智能监控、人机交互等领域提供了更丰富的数据支持。
当前挑战
EventPAR数据集面临的核心挑战体现在两方面:在领域问题层面,需解决动态场景下多模态数据(RGB与事件流)的时空对齐难题,以及情感属性这类主观标签的标注一致性;在构建过程层面,事件相机数据的高噪声特性要求设计有效的去噪算法,而跨季节采集带来的外观变化加剧了数据分布的复杂性。此外,数据集中故意引入的对抗攻击样本对模型鲁棒性提出了更高要求,如何平衡真实场景复杂性与标注质量构成了关键挑战。
常用场景
经典使用场景
EventPAR数据集在行人属性识别领域具有广泛的应用场景,特别是在多模态融合和复杂环境下的行人属性分析中表现突出。该数据集通过结合RGB和事件相机数据,有效解决了传统RGB相机在低光照、高速运动和动态模糊等条件下的性能瓶颈。经典使用场景包括智能监控系统中的行人属性识别、自动驾驶中的行人行为分析以及人机交互中的情感识别。EventPAR的多样化数据覆盖了不同季节、天气和光照条件,使其成为评估和开发鲁棒性行人属性识别模型的理想选择。
解决学术问题
EventPAR数据集解决了行人属性识别领域中的多个关键学术问题。首先,它弥补了传统RGB相机在复杂环境下的性能不足,通过引入事件相机数据,显著提升了模型在低光照和高速运动场景下的识别能力。其次,该数据集首次将情感属性纳入行人属性识别任务,填补了现有研究在情感维度上的空白。此外,EventPAR通过大规模多模态数据的提供,为多模态融合算法的研究提供了坚实的基础,推动了行人属性识别技术的进一步发展。
实际应用
EventPAR数据集在实际应用中具有广泛的价值。在智能监控领域,该数据集可以用于开发更鲁棒的行人属性识别系统,提升监控系统在复杂环境下的性能。在自动驾驶中,EventPAR的多模态数据可以帮助车辆更准确地识别行人属性和行为意图,从而提高行车安全性。此外,该数据集的情感属性识别功能可以应用于人机交互系统,使机器能够更好地理解人类情感,提升交互的自然性和用户体验。
数据集最近研究
最新研究方向
随着计算机视觉技术的快速发展,行人属性识别(Pedestrian Attribute Recognition, PAR)作为智能监控和智慧城市的关键技术,正迎来多模态融合的新趋势。EventPAR数据集的提出,标志着该领域从传统的RGB单模态分析向RGB-Event双模态协同感知的重要跨越。该数据集不仅突破了传统RGB相机在低光照、运动模糊等复杂场景下的性能瓶颈,更创新性地引入了情感属性维度,为行人行为意图理解和人机交互自然化提供了新的研究视角。近期研究热点集中在基于RWKV架构的多模态非对称融合框架优化、事件相机数据的高效表征学习,以及长尾分布下的属性不平衡问题解决。这些探索不仅推动了跨模态互补特征挖掘的理论创新,也为自动驾驶、智能安防等实际应用提供了更鲁棒的解决方案。
相关研究论文
- 1RGB-Event based Pedestrian Attribute Recognition: A Benchmark Dataset and An Asymmetric RWKV Fusion Framework安徽大学计算机科学与技术学院,安徽大学人工智能学院 · 2025年
以上内容由AI搜集并总结生成



