-
题名面向多模态自监督特征融合的音视频对抗对比学习
被引量:1
- 1
-
-
作者
盛振涛
陈雁翔
齐国君
-
机构
合肥工业大学计算机与信息学院
智能互联系统安徽省实验室(合肥工业大学)
机器感知与学习实验室(美国中佛罗里达大学)
-
出处
《中国图象图形学报》
CSCD
北大核心
2023年第1期317-332,共16页
-
基金
国家自然科学基金项目(61972127)。
-
文摘
目的同一视频中的视觉与听觉是两个共生模态,二者相辅相成,同时发生,从而形成一种自监督模式。随着对比学习在视觉领域取得很好的效果,将对比学习这一自监督表示学习范式应用于音视频多模态领域引起了研究人员的极大兴趣。本文专注于构建一个高效的音视频负样本空间,提高对比学习的音视频特征融合能力。方法提出了面向多模态自监督特征融合的音视频对抗对比学习方法:1)创新性地引入了视觉、听觉对抗性负样本集合来构建音视频负样本空间;2)在模态间与模态内进行对抗对比学习,使得音视频负样本空间中的视觉和听觉对抗性负样本可以不断跟踪难以区分的视听觉样本,有效地促进了音视频自监督特征融合。在上述两点基础上,进一步简化了音视频对抗对比学习框架。结果本文方法在Kinetics-400数据集的子集上进行训练,得到音视频特征。这一音视频特征用于指导动作识别和音频分类任务,取得了很好的效果。具体来说,在动作识别数据集UCF-101和HMDB-51(human metabolome database)上,本文方法相较于Cross-AVID(cross-audio visual instance discrimination)模型,视频级别的TOP1准确率分别高出了0.35%和0.83%;在环境声音数据集ECS-50上,本文方法相较于Cross-AVID模型,音频级别的TOP1准确率高出了2.88%。结论音视频对抗对比学习方法创新性地引入了视觉和听觉对抗性负样本集合,该方法可以很好地融合视觉特征和听觉特征,得到包含视听觉信息的音视频特征,得到的特征可以提高动作识别、音频分类任务的准确率。
-
关键词
自监督特征融合
对抗对比学习
音视频多模态
视听觉对抗性负样本
预训练
-
Keywords
self-supervised feature fusion
adversarial contrastive learning
audio-visual cross-modality
audio-visual adversarial negative sample
pre-training
-
分类号
TP37
[自动化与计算机技术—计算机系统结构]
-