期刊文献+
共找到64篇文章
< 1 2 4 >
每页显示 20 50 100
Augmented Deep Multi-Granularity Pose-Aware Feature Fusion Network for Visible-Infrared Person Re-Identification 被引量:2
1
作者 Zheng Shi Wanru Song +1 位作者 Junhao Shan Feng Liu 《Computers, Materials & Continua》 SCIE EI 2023年第12期3467-3488,共22页
Visible-infrared Cross-modality Person Re-identification(VI-ReID)is a critical technology in smart public facilities such as cities,campuses and libraries.It aims to match pedestrians in visible light and infrared ima... Visible-infrared Cross-modality Person Re-identification(VI-ReID)is a critical technology in smart public facilities such as cities,campuses and libraries.It aims to match pedestrians in visible light and infrared images for video surveillance,which poses a challenge in exploring cross-modal shared information accurately and efficiently.Therefore,multi-granularity feature learning methods have been applied in VI-ReID to extract potential multi-granularity semantic information related to pedestrian body structure attributes.However,existing research mainly uses traditional dual-stream fusion networks and overlooks the core of cross-modal learning networks,the fusion module.This paper introduces a novel network called the Augmented Deep Multi-Granularity Pose-Aware Feature Fusion Network(ADMPFF-Net),incorporating the Multi-Granularity Pose-Aware Feature Fusion(MPFF)module to generate discriminative representations.MPFF efficiently explores and learns global and local features with multi-level semantic information by inserting disentangling and duplicating blocks into the fusion module of the backbone network.ADMPFF-Net also provides a new perspective for designing multi-granularity learning networks.By incorporating the multi-granularity feature disentanglement(mGFD)and posture information segmentation(pIS)strategies,it extracts more representative features concerning body structure information.The Local Information Enhancement(LIE)module augments high-performance features in VI-ReID,and the multi-granularity joint loss supervises model training for objective feature learning.Experimental results on two public datasets show that ADMPFF-Net efficiently constructs pedestrian feature representations and enhances the accuracy of VI-ReID. 展开更多
关键词 Visible-infrared person re-identification MULTI-GRANULARITY feature learning modality
下载PDF
Learn Robust Pedestrian Representation Within Minimal Modality Discrepancy for Visible-Infrared Person Re-Identification
2
作者 Yu-Jie Liu Wen-Bin Shao Xiao-Rui Sun 《Journal of Computer Science & Technology》 SCIE EI CSCD 2022年第3期641-651,共11页
Visible-infrared person re-identification has attracted extensive attention from the community due to its potential great application prospects in video surveillance.There are huge modality discrepancies between visib... Visible-infrared person re-identification has attracted extensive attention from the community due to its potential great application prospects in video surveillance.There are huge modality discrepancies between visible and infrared images caused by different imaging mechanisms.Existing studies alleviate modality discrepancies by aligning modality distribution or extracting modality-shared features on the original image.However,they ignore a key solution,i.e.,converting visible images to gray images directly,which is efficient and effective to reduce modality discrepancies.In this paper,we transform the cross-modality person re-identification task from visible-infrared images to gray-infrared images,which is named as the minimal modality discrepancy.In addition,we propose a pyramid feature integration network(PFINet)which mines the discriminative refined features of pedestrian images and fuses high-level and semantically strong features to build a robust pedestrian representation.Specifically,PFINet first performs the feature extraction from concrete to abstract and the top-down semantic transfer to obtain multi-scale feature maps.Second,the multi-scale feature maps are inputted to the discriminative-region response module to emphasize the identity-discriminative regions by the spatial attention mechanism.Finally,the pedestrian representation is obtained by the feature integration.Extensive experiments demonstrate the effectiveness of PFINet which achieves the rank-1 accuracy of 81.95%and mAP of 74.49%on the multi-all evaluation mode of the SYSU-MM01 dataset. 展开更多
关键词 person re-identification modality discrepancy discriminative feature
原文传递
四流输入引导的特征互补可见光-红外行人重识别
3
作者 葛斌 许诺 +1 位作者 夏晨星 郑海君 《光电工程》 CAS CSCD 北大核心 2024年第9期49-62,共14页
目前可见光-红外行人重识别研究侧重于通过注意力机制提取模态共享显著性特征来最小化模态差异。然而,这类方法仅关注行人最显著特征,无法充分利用模态信息。针对此问题,本文提出了一种四流输入引导的特征互补网络(QFCNet)。首先在模态... 目前可见光-红外行人重识别研究侧重于通过注意力机制提取模态共享显著性特征来最小化模态差异。然而,这类方法仅关注行人最显著特征,无法充分利用模态信息。针对此问题,本文提出了一种四流输入引导的特征互补网络(QFCNet)。首先在模态特定特征提取阶段设计了四流特征提取和融合模块,通过增加两流输入,缓解模态间颜色差异,丰富模态的语义信息,进一步促进多维特征融合;其次设计了一个次显著特征互补模块,通过反转操作补充全局特征中被注意力机制忽略的行人细节信息,强化行人鉴别性特征。在SYSU-MM01,Reg DB两个公开数据集上的实验数据表明了此方法的先进性,其中在SYSU-MM01的全搜索模式中rank-1和m AP值达到了76.12%和71.51%。 展开更多
关键词 跨模态 行人重识别 红外 数据增强 注意力机制
下载PDF
基于跨模态近邻损失的可视-红外行人重识别
4
作者 赵三元 阿琪 高宇 《北京航空航天大学学报》 EI CAS CSCD 北大核心 2024年第2期433-441,共9页
可视-红外跨模态行人重识别任务的目标是给定一个模态的特定人员图像,在其他不同模态摄像机所拍摄的图像集中进行检索,找出相同人员对应的图像。由于成像方式不同,不同模态的图像之间存在明显的模态差异。为此,从度量学习的角度出发,对... 可视-红外跨模态行人重识别任务的目标是给定一个模态的特定人员图像,在其他不同模态摄像机所拍摄的图像集中进行检索,找出相同人员对应的图像。由于成像方式不同,不同模态的图像之间存在明显的模态差异。为此,从度量学习的角度出发,对损失函数进行改进以获取具有更加辨别性的信息。对图像特征内聚性进行理论分析,并在此基础上提出一种基于内聚性分析和跨模态近邻损失函数的重识别方法,以加强不同模态样本的内聚性。将跨模态困难样本的相似性度量问题转化为跨模态最近邻样本对和同模态样本对的相似性度量,使得网络对模态内聚性的优化更加高效和稳定。对所提方法在全局特征表示的基线网络和部分特征表示的基线网络上进行实验验证结果表明:所提方法对可视-红外行人重识别的预测结果相较于基线方法,平均准确度最高可提升8.44%,证明了方法在不同网络架构中的通用性;同时,以较小的模型复杂度和较低的计算量为代价,实现了可靠的跨模态行人重识别结果。 展开更多
关键词 可视-红外行人重识别 度量学习 深度学习 跨模态学习 计算机视觉
下载PDF
细微特征增强的多级联合聚类跨模态行人重识别算法
5
作者 范馨月 张阔 +1 位作者 张干 李嘉辉 《电子测量与仪器学报》 CSCD 北大核心 2024年第3期94-103,共10页
目前跨模态行人重识别研究注重于通过身份标签在全局特征或局部特征上提取模态共享特征来减少模态差异,但却忽视了具有辨别力的细微特征。为此提出了一种基于特征增强的聚类学习网络,该网络通过全局和局部特征来挖掘并增强不同模态的细... 目前跨模态行人重识别研究注重于通过身份标签在全局特征或局部特征上提取模态共享特征来减少模态差异,但却忽视了具有辨别力的细微特征。为此提出了一种基于特征增强的聚类学习网络,该网络通过全局和局部特征来挖掘并增强不同模态的细微特征,并结合多级联合聚类学习策略,最小化模态差异和类内变化。针对训练数据设计了随机颜色转换模块,在图像输入端增加模态之间的交互,以克服颜色偏差的影响。通过在公共数据集上进行实验,验证了所提方法的有效性,其中在SYSU-MM01数据集的全搜索模式下Rank-1和mAP分别达到了70.52%和64.02%;在RegDB数据集的V2I检索模式下Rank-1和mAP分别达到了88.88%和80.93%。 展开更多
关键词 行人重识别 跨模态 随机颜色转换 细微特征增强 多级联合聚类学习
下载PDF
基于同质中间模态的跨模态行人再识别方法
6
作者 罗智徽 胡海涛 +1 位作者 马潇峰 程文刚 《图学学报》 CSCD 北大核心 2024年第4期670-682,共13页
可见光-红外跨模态行人再识别(VI-Re ID)旨在对不同摄像头采集同一行人的可见光图像和红外图像进行检索与匹配。除了存在可见光行人再识别(Re ID)中因位姿、视角、局部遮挡等造成的模态内差异外,可见光图像和红外图像的模态间差异是VI-R... 可见光-红外跨模态行人再识别(VI-Re ID)旨在对不同摄像头采集同一行人的可见光图像和红外图像进行检索与匹配。除了存在可见光行人再识别(Re ID)中因位姿、视角、局部遮挡等造成的模态内差异外,可见光图像和红外图像的模态间差异是VI-ReID的主要挑战。现有方法通常对2种模态的图像进行联合特征学习来缩小模态间差异,忽略了可见光和红外两种模态图像在通道上的本质不同。为此,本文试图从2种模态共同生成一种中间模态来辅助缩小模态间差异,并在标准ViT(vision transformer)网络上通过局部特征和全局特征的融合来优化特征嵌入学习。首先,设计同质中间模态生成器,通过可见光图像和红外图像共同生成同质中间模态(H-modality)图像,将3种模态图像投影到统一的特征空间进行联合约束,从而借助中间模态缩小可见光模态和红外模态间的差异,实现图像级对齐。进一步提出一种基于同质中间模态的Transformer跨模态行人再识别方法,使用ViT提取全局特征,设计一个局部分支以增强网络的局部感知能力。在全局特征提取中,为了增强全局特征的多样性,引入头部多样性模块(head enrich module)使不同的头聚合图像不同的模式。该方法融合全局特征与局部特征,能够提高模型的判别能力,在SYSU-MM01和RegDB数据集上的rank-1/m AP分别达到67.68%/64.37%和86.16%/79.11%,优于现有大多数最前沿的方法。 展开更多
关键词 行人再识别 跨模态 TRANSFORMER 中间模态 特征融合
下载PDF
面向可见光-红外图像的跨模态行人再识别方法
7
作者 孙义博 王蓉 +1 位作者 张琪 林榕辉 《北京航空航天大学学报》 EI CAS CSCD 北大核心 2024年第6期2018-2025,共8页
为降低模型对图像颜色的敏感度,减小可见光和红外模态间的差异,提出一种面向可见光-红外图像的跨模态行人再识别方法。将可见光图像转换到HSV颜色空间,提取只描述图像明暗信息的V分量,降低模型对颜色信息的依赖性;通过轻量级网络对V分... 为降低模型对图像颜色的敏感度,减小可见光和红外模态间的差异,提出一种面向可见光-红外图像的跨模态行人再识别方法。将可见光图像转换到HSV颜色空间,提取只描述图像明暗信息的V分量,降低模型对颜色信息的依赖性;通过轻量级网络对V分量图像进行降维和升维,生成介于可见光和红外图像的中间模态,缩小模态间的差异性;在SYSU-MM01和RegDB数据集上进行性能评估。性能评估结果为Rank-1的数值分别增加了6.67%、1.18%,mAP的数值分别增加了6.47%、1.15%,mINP的数值分别增加了5.59%、0.42%。 展开更多
关键词 可见光-红外图像 跨模态 HSV颜色空间 轻量级网络 行人再识别
下载PDF
一种单阶段无监督可见光-红外跨模态行人重识别方法
8
作者 娄刃 和任强 +4 位作者 赵三元 郝昕 周跃琪 汪心渊 李方芳 《计算机科学》 CSCD 北大核心 2024年第S01期528-534,共7页
无监督“可见光-红外”跨模态行人重识别任务能够缓解智能监控场景中需要大量人工标注的问题。常见多阶段模型用于处理不同模态数据。文中提出了一种有效的单阶段无监督跨模态行人重识别的方法,设计了基于置信因子的聚类算法和图嵌入的... 无监督“可见光-红外”跨模态行人重识别任务能够缓解智能监控场景中需要大量人工标注的问题。常见多阶段模型用于处理不同模态数据。文中提出了一种有效的单阶段无监督跨模态行人重识别的方法,设计了基于置信因子的聚类算法和图嵌入的跨模态特征处理方法,分别用于解决无标签问题和跨模态问题。实验结果表明,相较于现有算法,所提方法在r=1时精度至少取得了7%的提高。 展开更多
关键词 跨模态学习 无监督行人重识别 可见光-红外行人重识别 无监督学习 跨模态特征处理
下载PDF
跨通道交互注意力机制驱动的双流网络跨模态行人重识别
9
作者 何磊 栗风永 秦川 《应用科学学报》 CAS CSCD 北大核心 2024年第5期884-892,共9页
现有的跨模态行人重识别方法不能同时兼顾模态间与模态内的目标行人差异,很难提升检索准确度。为解决这一问题,引入跨通道交互的注意力机制,增强行人特征的鲁棒提取能力,有效抑制冗余特征的提取并获得更具辨别力的特征表达。进一步,联... 现有的跨模态行人重识别方法不能同时兼顾模态间与模态内的目标行人差异,很难提升检索准确度。为解决这一问题,引入跨通道交互的注意力机制,增强行人特征的鲁棒提取能力,有效抑制冗余特征的提取并获得更具辨别力的特征表达。进一步,联合异质中心三元组损失、三元组损失和身份损失进行监督学习,有效结合了行人特征的跨模态类间差异和类内差异。实验证明了所提方法的有效性。与7个已有的经典方法相比,所提方法在两个标准数据集RegDB与SYSU-MM01上都取得了较好的性能效果。 展开更多
关键词 跨模态 行人重识别 卷积神经网络 注意力机制
下载PDF
结合数据增强与特征融合的跨模态行人重识别
10
作者 宋雨 王帮海 曹钢钢 《计算机工程与应用》 CSCD 北大核心 2024年第4期133-141,共9页
可见光-红外行人重识别问题的难点在于图像间模态差异大,大多数现有的方法通过生成对抗网络生成伪图像或提取原始图像上的模态共享特征来缓解模态差异。然而,训练生成对抗网络需要消耗大量的计算资源且生成的伪图像容易引入噪声,提取模... 可见光-红外行人重识别问题的难点在于图像间模态差异大,大多数现有的方法通过生成对抗网络生成伪图像或提取原始图像上的模态共享特征来缓解模态差异。然而,训练生成对抗网络需要消耗大量的计算资源且生成的伪图像容易引入噪声,提取模态共享特征也会不可避免地导致与行人身份相关的重要判别特征丢失。针对以上问题,提出新的跨模态行人重识别网络。首先将进行自动数据增强后的训练数据集作为网络输入,提高模型的鲁棒性;然后在网络中引入实例正则化来缩小模态差异;最后将网络各层提取到的不同尺度的行人特征进行有机融合,融合后的特征包含更多与行人身份相关的判别特征。该方法在SYSU-MM01数据集的全局搜索模式下Rank-1/mAP分别达到69.47%/65.05%,在RegDB数据集的可见光到红外模式下Rank-1/mAP分别达到85.73%/77.77%,实验结果获得显著提升。 展开更多
关键词 跨模态 行人重识别 自动数据增强 特征融合
下载PDF
模态间关系促进的行人检索方法
11
作者 李博 张飞飞 徐常胜 《软件学报》 EI CSCD 北大核心 2024年第10期4766-4780,共15页
基于文本描述的行人检索是一个新兴的跨模态检索子任务,由传统行人重识别任务衍生而来,对公共安全以及人员追踪具有重要意义.相比于单模态图像检索的行人重识别任务,基于文本描述的行人检索解决了实际应用中缺少查询图像的问题,其主要... 基于文本描述的行人检索是一个新兴的跨模态检索子任务,由传统行人重识别任务衍生而来,对公共安全以及人员追踪具有重要意义.相比于单模态图像检索的行人重识别任务,基于文本描述的行人检索解决了实际应用中缺少查询图像的问题,其主要挑战在于该任务结合了视觉内容和文本描述两种不同模态的数据,要求模型同时具有图像理解能力和文本语义学习能力.为了缩小行人图像和文本描述的模态间语义鸿沟,传统的基于文本描述的行人检索方法多是对提取的图像和文本特征进行机械地分割,只关注于跨模态信息的语义对齐,忽略了图像和文本模态内部的潜在联系,导致模态间细粒度匹配的不准确.为了解决上述问题,提出模态间关系促进的行人检索方法,首先利用注意力机制分别构建模态内自注意力矩阵和跨模态注意力矩阵,并将注意力矩阵看作不同特征序列间的响应值分布.然后,分别使用两种不同的矩阵构建方法重构模态内自注意力矩阵和跨模态注意力矩阵.其中自注意力矩阵的重构利用模态内逐元素重构的方式可以很好地挖掘模态内部的潜在联系,而跨模态注意力矩阵的重构用模态间整体重构矩阵的方法,以跨模态信息为桥梁,可充分挖掘模态间的潜在信息,缩小语义鸿沟.最后,用基于任务的跨模态投影匹配损失和KL散度损失联合约束模型优化,达到模态间信息相互促进的效果.在基于文本描述的行人检索公开数据库CUHK-PEDES上进行了定量以及检索结果的可视化,均表明所提方法可取得目前最优的效果. 展开更多
关键词 行人检索 跨模态任务 文本语义学习 关系对齐 注意力机制
下载PDF
一种结构化双注意力混合通道增强的跨模态行人重识别方法 被引量:1
12
作者 庄建军 庄宇辰 《电子与信息学报》 EI CAS CSCD 北大核心 2024年第2期518-526,共9页
在目前跨模态行人重识别技术的研究中,大部分现有的方法会通过单模态原始可见光图像或者对抗生成图像的局部共享特征来降低跨模态差异,导致在红外图像判别中由于底层特征信息丢失而缺乏稳定的识别准确率。为了解决该问题,该文提出一种... 在目前跨模态行人重识别技术的研究中,大部分现有的方法会通过单模态原始可见光图像或者对抗生成图像的局部共享特征来降低跨模态差异,导致在红外图像判别中由于底层特征信息丢失而缺乏稳定的识别准确率。为了解决该问题,该文提出一种结构化双注意力可交换混合随机通道增强的特征融合跨模态行人重识别方法,利用通道增强后的可视图像作为第三模态,通过图像通道可交换随机混合增强(I-CSA)模块对可见光图像进行单通道和三通道随机混合增强抽取,从而突出行人的姿态结构细节,在学习中减少模态间差异。结构化联合注意力特征融合(SAFF)模块在注重模态间行人姿态结构关系的前提下,为跨模态表征学习提供更丰富的监督,增强了模态变化中共享特征的鲁棒性。在SYSU-MM01数据集全搜索模式单摄设置下Rank-1和mAP分别达到71.2%和68.1%,优于同类前沿方法。 展开更多
关键词 行人重识别 跨模态 混合通道增强 联合注意力 特征融合
下载PDF
结合多尺度特征与混淆学习的跨模态行人重识别
13
作者 王路遥 王凤随 +1 位作者 闫涛 陈元妹 《智能系统学报》 CSCD 北大核心 2024年第4期898-908,共11页
跨模态行人重识别研究的重难点主要来自于行人图像之间巨大的模态差异和模态内差异。针对这些问题,提出一种结合多尺度特征与混淆学习的网络结构。为实现高效的特征提取、缩小模态内差异,将网络设计为多尺度特征互补的形式,分别学习行... 跨模态行人重识别研究的重难点主要来自于行人图像之间巨大的模态差异和模态内差异。针对这些问题,提出一种结合多尺度特征与混淆学习的网络结构。为实现高效的特征提取、缩小模态内差异,将网络设计为多尺度特征互补的形式,分别学习行人的局部细化特征与全局粗糙特征,从细粒度和粗粒度两方面来增强网络的特征表达能力。利用混淆学习策略,模糊网络的模态识别反馈,挖掘稳定且有效的模态无关属性应对模态差异,来提高特征对模态变化的鲁棒性。在大规模数据集SYSU-MM01的全搜索模式下该算法首位击中率和平均精度(mean average precision,mAP)的结果分别为76.69%和72.45%,在RegDB数据集的可见光到红外模式下该算法首位击中率和mAP的结果分别为94.62%和94.60%,优于现有的主要方法,验证了所提方法的有效性。 展开更多
关键词 机器视觉 行人重识别 跨模态 多尺度特征 粗粒度 细粒度 混淆学习 模态无关属性
下载PDF
多模态特征融合和自蒸馏的红外-可见光行人重识别
14
作者 万磊 李华锋 张亚飞 《计算机辅助设计与图形学学报》 EI CSCD 北大核心 2024年第7期1065-1076,共12页
现有跨模态行人重识别方法大多挖掘模态不变的特征,忽略了不同模态内的具有判别性的自有特征.为了充分地利用不同模态内的自有特征,提出一种多模态特征融合和自蒸馏的红外-可见光行人重识别方法.首先提出一种基于双分类器的注意力融合机... 现有跨模态行人重识别方法大多挖掘模态不变的特征,忽略了不同模态内的具有判别性的自有特征.为了充分地利用不同模态内的自有特征,提出一种多模态特征融合和自蒸馏的红外-可见光行人重识别方法.首先提出一种基于双分类器的注意力融合机制,为各模态的自有特征赋予较大的融合权重,共有特征赋予较小的融合权重,得到含有各模态判别性自有特征的多模态融合特征;为了提升网络特征的鲁棒性以适应行人外观的变化,构建一个记忆存储器来存储行人的多视角特征;还设计了一种自蒸馏无参数动态引导策略,在多模态融合特征和多视角特征的引导下,利用该策略动态强化网络的多模态推理和多视角推理能力;最后网络能够从一个行人的单模态图像推理出另一模态不同视角行人特征,提升模型跨模态行人重识别的性能.基于PyTorch深度学习框架,在公开数据集SYSU-MM01和RegDB上与当前主流的方法进行对比实验,结果表明,所提方法的Rank-1分别达到63.12%和92.55%, mAP分别达到61.51%和89.55%,优于对比方法. 展开更多
关键词 跨模态行人重识别 特征融合 注意力机制 记忆存储机制 自蒸馏
下载PDF
基于融合注意力和特征增强的跨模态行人重识别
15
作者 黄驰涵 沈肖波 《南京信息工程大学学报》 CAS 北大核心 2024年第4期451-460,共10页
跨模态行人重识别是一项具有挑战性的任务,目的是在可见光和红外模式之间匹配行人图像,以便在犯罪调查和智能视频监控应用中发挥重要作用.为了解决跨模态行人重识别任务中对细粒度特征提取能力不强的问题,本文提出一种基于融合注意力和... 跨模态行人重识别是一项具有挑战性的任务,目的是在可见光和红外模式之间匹配行人图像,以便在犯罪调查和智能视频监控应用中发挥重要作用.为了解决跨模态行人重识别任务中对细粒度特征提取能力不强的问题,本文提出一种基于融合注意力和特征增强的行人重识别模型.首先,利用自动数据增强技术缓解不同摄像机的视角、尺度差异,并基于交叉注意力多尺度Vision Transformer,通过处理多尺度特征生成具有更强区分性的特征表示;接着,提出通道注意力和空间注意力机制,在融合可见光和红外图像特征时学习对区分特征重要的信息;最后,设计损失函数,采用基于自适应权重的难三元组损失,增强了每个样本之间的相关性,提高了可见光和红外图像对不同行人的识别能力.在SYSU-MM01和RegDB数据集上进行大量实验,结果表明,本文提出方法的mAP分别达到了68.05%和85.19%,相较之前的工作性能有所提升,且通过消融实验和对比分析验证了本文模型的先进性和有效性. 展开更多
关键词 行人重识别 跨模态 交叉注意力 特征提取 多尺度
下载PDF
基于异质信息对齐和重排序的跨模态行人重识别方法
16
作者 赵铁柱 梁校伦 +2 位作者 杨秋鸿 张国斌 龚莨皓 《山东科技大学学报(自然科学版)》 CAS 北大核心 2024年第2期79-89,共11页
可见光图像和红外图像成像原理不同,面向可见光和红外光的跨模态行人重识别面临较大的跨模态差异,行人异质信息对齐和挖掘异常困难。为此,提出基于异质信息对齐和重排序的跨模态行人重识别方法。在异质信息对齐方面,提出一种新的异质局... 可见光图像和红外图像成像原理不同,面向可见光和红外光的跨模态行人重识别面临较大的跨模态差异,行人异质信息对齐和挖掘异常困难。为此,提出基于异质信息对齐和重排序的跨模态行人重识别方法。在异质信息对齐方面,提出一种新的异质局部信息对齐算法,通过求取行人异质局部信息距离矩阵的最短路径,实现同一行人异质局部信息的动态匹配,解决行人异质信息对齐问题;在重排序方面,提出拓展k近邻重排序算法,通过动态地拓展查询图像k近邻异质信息,实现同一行人异质信息的融合,解决行人异质信息挖掘困难问题。实验结果表明,在SYSU数据集全场景查询模式上,所提方法与AGW模型结合k近邻重排序算法相比,在评价指标mAP和Rank-1上分别提升了10.12%和8.6%。 展开更多
关键词 跨模态 行人重识别 异质信息对齐 重排序 深度学习
下载PDF
基于注意力特征融合的跨模态行人重识别
17
作者 邓淑雅 李浩源 《计算机系统应用》 2024年第9期269-275,共7页
跨模态行人重识别任务旨在匹配同一行人的可见光图像和红外图像,在智能安全监控系统中广泛应用.由于可见光模态和红外模态存在固有的模态差异,给跨模态行人重识别任务在实际应用过程中带来了巨大的挑战.为了缓解模态差异,研究人员提出... 跨模态行人重识别任务旨在匹配同一行人的可见光图像和红外图像,在智能安全监控系统中广泛应用.由于可见光模态和红外模态存在固有的模态差异,给跨模态行人重识别任务在实际应用过程中带来了巨大的挑战.为了缓解模态差异,研究人员提出了很多有效的解决方法.但是由于这些方法提取的是不同模态之间的特征,彼此缺少对应的模态信息,导致特征缺少充分的鉴别性.为了提高模型提取特征的鉴别性,本文提出基于注意力特征融合的跨模态行人重识别方法.通过设计高效的特征提取网络和注意力融合模块,并在多种损失函数的优化下,实现不同模态信息的融合和模态对齐,从而促进模型匹配行人准确度的提升.实验结果表明,本方法在多个数据集上都取得了很好的性能. 展开更多
关键词 跨模态行人重识别 注意力机制 特征融合 模态差异 模态对齐
下载PDF
结合视觉文本匹配和图嵌入的可见光-红外行人重识别
18
作者 张红颖 樊世钰 +1 位作者 罗谦 张涛 《电子与信息学报》 EI CAS CSCD 北大核心 2024年第9期3662-3671,共10页
对于可见光-红外跨模态行人重识别(Re-ID),大多数方法采用基于模态转换的策略,通过对抗网络生成图像,以此建立不同模态间的相互联系。然而这些方法往往不能有效降低模态间的差距,导致重识别性能不佳。针对此问题,该文提出一种基于视觉... 对于可见光-红外跨模态行人重识别(Re-ID),大多数方法采用基于模态转换的策略,通过对抗网络生成图像,以此建立不同模态间的相互联系。然而这些方法往往不能有效降低模态间的差距,导致重识别性能不佳。针对此问题,该文提出一种基于视觉文本匹配和图嵌入的双阶段跨模态行人重识别方法。该方法通过上下文优化方案构建可学习文本模板,生成行人描述作为模态间的关联信息。具体而言,在第1阶段基于图片-文本对的预训练(CLIP)模型实现同一行人不同模态间的统一文本描述作为先验信息辅助降低模态差异。同时在第2阶段引入基于图嵌入的跨模态约束框架,设计模态间自适应损失函数,提升行人识别准确率。为了验证所提方法的有效性,在SYSU-MM01和Reg DB数据集上进行了大量实验,其中SYSU-MM01数据集上的首次命中(Rank-1)和平均精度均值(m AP)分别达到64.2%,60.2%。实验结果表明,该文所提方法能够提升可见光-红外跨模态行人重识别的准确率。 展开更多
关键词 行人重识别 跨模态 图片-文本对的预训练模型 上下文优化 图嵌入
下载PDF
多分支融合变分细化蒸馏的跨模态行人重识别
19
作者 王路遥 王凤随 陈元妹 《重庆工商大学学报(自然科学版)》 2024年第4期77-85,共9页
目的针对目前跨模态行人重识别研究中对行人细腻区域关注不足以及网络易受噪声影响的问题,提出一种多分支融合变分细化蒸馏学习方法。方法首先,网络通过多分支聚合不同粒度的全局特征,督促深层网络学习两种模态的全局信息和细节信息,丰... 目的针对目前跨模态行人重识别研究中对行人细腻区域关注不足以及网络易受噪声影响的问题,提出一种多分支融合变分细化蒸馏学习方法。方法首先,网络通过多分支聚合不同粒度的全局特征,督促深层网络学习两种模态的全局信息和细节信息,丰富行人的特征描述符;然后,结合变分细化蒸馏策略,对特征信息进行再压缩,保留与任务相关的深层信息,同时丢弃无用的干扰物;最后,将网络捕获的不同特征用多种损失函数联合监督,以提高网络对行人表征的敏感度。结果所提方法在SYSU-MM01数据集的全搜索模式下,R-1和mAP分别达到66.93%和65.25%;在RegDB数据集的可见光到红外设置下,R-1和mAP分别达到78.26%、77.83%。结论通过消融实验、对比实验和可视化实验,充分验证了所提方法的有效性。 展开更多
关键词 行人重识别 跨模态 多分支聚合 变分细化蒸馏 多损失
下载PDF
基于局部异质协同双路网络的跨模态行人重识别 被引量:4
20
作者 郑爱华 曾小强 +2 位作者 江波 黄岩 汤进 《模式识别与人工智能》 EI CSCD 北大核心 2020年第10期867-878,共12页
针对现有跨模态行人重识别方法忽略行人的局部特征及模态间的相互协同的问题,文中提出基于局部异质协同双路网络的跨模态行人重识别方法.首先,通过双路网络提取不同模态的全局特征进行局部精细化,挖掘行人的结构化局部信息.然后,通过标... 针对现有跨模态行人重识别方法忽略行人的局部特征及模态间的相互协同的问题,文中提出基于局部异质协同双路网络的跨模态行人重识别方法.首先,通过双路网络提取不同模态的全局特征进行局部精细化,挖掘行人的结构化局部信息.然后,通过标签和预测信息建立跨模态局部信息之间的关联,进行协同自适应的跨模态融合,使不同模态的特征之间相互补充,获得富有判别力的特征.在RegDB、SYSU-MM01跨模态行人重识别数据集上的实验验证文中方法的有效性. 展开更多
关键词 行人重识别 跨模态 局部特征 协同融合 卷积神经网络
下载PDF
上一页 1 2 4 下一页 到第
使用帮助 返回顶部