期刊文献+
共找到84篇文章
< 1 2 5 >
每页显示 20 50 100
Boosting Multi-modal Ocular Recognition via Spatial Feature Reconstruction and Unsupervised Image Quality Estimation
1
作者 Zihui Yan Yunlong Wang +2 位作者 Kunbo Zhang Zhenan Sun Lingxiao He 《Machine Intelligence Research》 EI CSCD 2024年第1期197-214,共18页
In the daily application of an iris-recognition-at-a-distance(IAAD)system,many ocular images of low quality are acquired.As the iris part of these images is often not qualified for the recognition requirements,the mor... In the daily application of an iris-recognition-at-a-distance(IAAD)system,many ocular images of low quality are acquired.As the iris part of these images is often not qualified for the recognition requirements,the more accessible periocular regions are a good complement for recognition.To further boost the performance of IAAD systems,a novel end-to-end framework for multi-modal ocular recognition is proposed.The proposed framework mainly consists of iris/periocular feature extraction and matching,unsupervised iris quality assessment,and a score-level adaptive weighted fusion strategy.First,ocular feature reconstruction(OFR)is proposed to sparsely reconstruct each probe image by high-quality gallery images based on proper feature maps.Next,a brand new unsupervised iris quality assessment method based on random multiscale embedding robustness is proposed.Different from the existing iris quality assess-ment methods,the quality of an iris image is measured by its robustness in the embedding space.At last,the fusion strategy exploits the iris quality score as the fusion weight to coalesce the complementary information from the iris and periocular regions.Extensive experi-mental results on ocular datasets prove that the proposed method is obviously better than unimodal biometrics,and the fusion strategy can significantly improve therecognition performance. 展开更多
关键词 Iris recognition periocular recognition spatial feature reconstruction fully convolutional network flexible matching unsupervised iris quality assessment adaptive weight fusion
原文传递
A fast, accurate and dense feature matching algorithm for aerial images 被引量:2
2
作者 LI Ying GONG Guanghong SUN Lin 《Journal of Systems Engineering and Electronics》 SCIE EI CSCD 2020年第6期1128-1139,共12页
Three-dimensional(3D)reconstruction based on aerial images has broad prospects,and feature matching is an important step of it.However,for high-resolution aerial images,there are usually problems such as long time,mis... Three-dimensional(3D)reconstruction based on aerial images has broad prospects,and feature matching is an important step of it.However,for high-resolution aerial images,there are usually problems such as long time,mismatching and sparse feature pairs using traditional algorithms.Therefore,an algorithm is proposed to realize fast,accurate and dense feature matching.The algorithm consists of four steps.Firstly,we achieve a balance between the feature matching time and the number of matching pairs by appropriately reducing the image resolution.Secondly,to realize further screening of the mismatches,a feature screening algorithm based on similarity judgment or local optimization is proposed.Thirdly,to make the algorithm more widely applicable,we combine the results of different algorithms to get dense results.Finally,all matching feature pairs in the low-resolution images are restored to the original images.Comparisons between the original algorithms and our algorithm show that the proposed algorithm can effectively reduce the matching time,screen out the mismatches,and improve the number of matches. 展开更多
关键词 feature matching feature screening feature fusion aerial image three-dimensional(3D)reconstruction
下载PDF
二阶逐层特征融合网络的图像超分辨重建
3
作者 于蕾 邓秋月 +1 位作者 郑丽颖 吴昊宇 《系统工程与电子技术》 EI CSCD 北大核心 2024年第2期391-400,共10页
针对一些超分辨网络忽略了对网络各层次特征的复用以及融合的问题,构建了具有较强特征复用和融合能力的二阶逐层特征融合超分辨网络,以获得具有高分辨率、高保真度的重建图像。网络的核心是逐层特征融合模块,该模块通过特征融合操作增... 针对一些超分辨网络忽略了对网络各层次特征的复用以及融合的问题,构建了具有较强特征复用和融合能力的二阶逐层特征融合超分辨网络,以获得具有高分辨率、高保真度的重建图像。网络的核心是逐层特征融合模块,该模块通过特征融合操作增强特征的重用。此外,还提出了二阶特征融合机制,该机制在网络的局部和全局层次上采用逐层特征融合方法进行特征融合。实验结果表明该网络的重建图像在线条和轮廓上更清晰,并且在峰值信噪比和结构相似度上也取得了更好的结果。例如当缩放尺度因子为2时,各测试集上的峰值信噪比/结构相似度依次为38.20 dB/0.9612、33.81 dB/0.9195、32.28 dB/0.9010、32.65 dB/0.9324、39.11 dB/0.9779,相比其他模型有一定提升,从客观标准和主观角度证明了二阶逐层特征融合超分辨网络具有一定的优越性。 展开更多
关键词 超分辨重建 卷积神经网络 特征融合 二阶特征融合机制
下载PDF
基于蓝图可分离残差蒸馏网络的图像超分辨率重建
4
作者 熊荣盛 王帮海 杨夏宁 《广东工业大学学报》 CAS 2024年第2期65-72,共8页
标准卷积的单图像超分辨率重建性能受限于堆叠网络层的冗余性,算法难以实施,特征提取层单一的残差结构也无法高效地利用卷积得到的特征信息。为改善上述问题,本文改进残差蒸馏结构,提出残差蒸馏复用模块,以减少残差蒸馏过程中图像高频... 标准卷积的单图像超分辨率重建性能受限于堆叠网络层的冗余性,算法难以实施,特征提取层单一的残差结构也无法高效地利用卷积得到的特征信息。为改善上述问题,本文改进残差蒸馏结构,提出残差蒸馏复用模块,以减少残差蒸馏过程中图像高频信息的损失;此外,将基础残差块替换为蓝图可分离卷积,解耦特征图的空间相关性,以降低高相关性特征的权重,提高卷积的效率,降低参数量。为验证算法的性能,在Set5等标准数据集中对算法进行验证。实验结果表明,该算法模型的峰值信噪比(Peak Signal-To-Noise Ratio, PSNR)和结构相似度(Structural Similarity, SSIM)相比于基于残差蒸馏网络的轻量级图像超分辨率重建网络分别有0.06~0.25 d B与0.004~0.012的提升。 展开更多
关键词 图像超分辨率重建 残差蒸馏 蓝图可分离卷积 特征融合
下载PDF
基于联合多重重建自编码器的桁架损伤识别
5
作者 刘满东 彭珍瑞 《中国机械工程》 EI CAS CSCD 北大核心 2024年第5期840-850,共11页
针对桁架杆单元存在不同损伤类型时损伤特征信息难以捕捉且识别结果不准确的问题,提出了利用联合多重重建自编码器(JMRAE)进行损伤识别的方法。首先,运用JMRAE按照不同尺度数分段截取信号,将Sigmoid函数和ReLU函数进行组合以提取特征量... 针对桁架杆单元存在不同损伤类型时损伤特征信息难以捕捉且识别结果不准确的问题,提出了利用联合多重重建自编码器(JMRAE)进行损伤识别的方法。首先,运用JMRAE按照不同尺度数分段截取信号,将Sigmoid函数和ReLU函数进行组合以提取特征量,引入零相位成分分析(ZCA)降低特征量维度,以保留重要信息并减少数据冗余。然后,运用SoftMax分类器求解隐含层中不同片段的局部特征量,并进行特征量融合以判断结构状态。最后,运用三维桁架结构数值模型和实验室搭建桁架进行验证,并与精细复合多尺度散布熵(RCMDE)、峰度和反向传播(BP)神经网络方法进行对比研究,结果表明所提方法具有更高的损伤识别准确性。 展开更多
关键词 联合多重重建自编码器 零相位成分分析 SoftMax分类器 特征量融合 损伤识别
下载PDF
结合扩张金字塔的脑部医学图像融合
6
作者 马为民 郑茜颖 《电视技术》 2024年第1期16-21,29,共7页
针对现有脑部医学图像融合算法存在的融合图像细节模糊和边缘性差等问题,设计一种扩张金字塔特征提取算法,由特征提取器、特征融合器和特征重构器3部分组成。特征提取器由扩张金字塔特征模块提取浅层和深层图像特征的结合,防止图像细节... 针对现有脑部医学图像融合算法存在的融合图像细节模糊和边缘性差等问题,设计一种扩张金字塔特征提取算法,由特征提取器、特征融合器和特征重构器3部分组成。特征提取器由扩张金字塔特征模块提取浅层和深层图像特征的结合,防止图像细节信息的丢失;特征融合器采用改进的功能能量比(Functional Energy Ratio,FER)特征融合策略增强融合图像边缘信息;特征重构器由4层卷积构成归一化图像。实验结果表明,相较于当前通用的脑部融合算法,所提出的算法具有较好的视觉效果和细节信息,客观评价指标有更好的表现。 展开更多
关键词 脑部医学图像融合 多模态医学图像 金字塔特征 特征融合 特征重构
下载PDF
基于特征点动态选择的三维人脸点云模型重建
7
作者 陈素雅 何宏 《计算机应用研究》 CSCD 北大核心 2024年第2期629-634,共6页
针对典型的点云配准方法中伪特征点过多导致配准效率低和配准结果不精确的问题,提出一种基于特征点动态选择的三维人脸点云模型重建方法。该方法在粗配准阶段,采用动态特征矩阵求解法获取粗匹配特征变换矩阵以避免伪特征点的干扰。在精... 针对典型的点云配准方法中伪特征点过多导致配准效率低和配准结果不精确的问题,提出一种基于特征点动态选择的三维人脸点云模型重建方法。该方法在粗配准阶段,采用动态特征矩阵求解法获取粗匹配特征变换矩阵以避免伪特征点的干扰。在精配准过程中,采用二次加权法向量垂直距离法在人脸流形表面选择更有效的特征点以减少伪特征点的数量,并采用基于特征融合与局部特征一致性的迭代最近点方法进行精配准。经过对比实验验证了算法的可行性,实验结果表明,该算法能够实现高精度且快速的三维人脸点云模型重建,且均方根误差达到1.8165 mm,相较其他算法,其在模型重建精度和效率方面都有所提升,具有良好的应用前景。 展开更多
关键词 三维人脸点云模型重建 动态特征矩阵 二次加权法向量垂直距离 特征融合 局部特征一致性
下载PDF
基于深度学习方法的单张零件图像重建网格模型
8
作者 田铮 龙雨 《现代电子技术》 北大核心 2024年第9期109-114,共6页
重建物体的三维形状是计算机图形学领域的一个研究热点,网格模型是一种常用的三维模型。文中基于深度学习方法提出一种从单幅机械零件图像重建其网格模型的方法。首先经过一个图像预处理过程将前景零件从背景中分离出来;其次基于ResNet... 重建物体的三维形状是计算机图形学领域的一个研究热点,网格模型是一种常用的三维模型。文中基于深度学习方法提出一种从单幅机械零件图像重建其网格模型的方法。首先经过一个图像预处理过程将前景零件从背景中分离出来;其次基于ResNet和BSP⁃Net两个骨干网络建立一个新的网络结构,将前景零件图像重构为网格模型。该网络将零件的多个视图图像作为输入,并融合它们的重要特征。此外,加入形状先验损失引导模型的训练过程以优化重建结果。对螺母、螺栓和垫圈进行重建实验,验证了该方法的有效性。通过训练过程的损失函数曲线说明添加多视图特征融合和形状先验损失可以让损失收敛到更低的值。在三个评价指标上的测试表明,文中方法的重建结果优于ResNet+BSP⁃Net方法和IM⁃Net方法。 展开更多
关键词 网格模型 三维重建 深度学习 特征融合 形状先验 图像分割
下载PDF
基于注意力机制的多尺度融合图像超分辨率重建
9
作者 盛月 辛月兰 +1 位作者 王庆庆 谢琪琦 《激光杂志》 CAS 北大核心 2024年第3期118-125,共8页
针对图像超分辨率重建算法在信息恢复过程中存在特征提取不充分、重建高频细节能力不足等问题,在SRGAN的基础上提出了一种基于注意力机制的多尺度融合图像超分辨率重建算法(SRGAN-MCA)。首先,构建了一种基于坐标注意力机制的多尺度密集... 针对图像超分辨率重建算法在信息恢复过程中存在特征提取不充分、重建高频细节能力不足等问题,在SRGAN的基础上提出了一种基于注意力机制的多尺度融合图像超分辨率重建算法(SRGAN-MCA)。首先,构建了一种基于坐标注意力机制的多尺度密集残差注意力模块来提取不同尺度的特征信息,以解决图像超分辨率重建非线性映射过程中特征提取不充分的问题;其次,通过在网络判别器中嵌入谱归一化来约束判别器的Lipschitz常数,以增强网络训练的稳定性;最后添加了Charbonnier损失函数对SRGAN-MCA进行训练优化,以实现更高质量重建。在Set5、Set14、BSD100数据集上的实验结果表明,与SRGAN相比,2倍和4倍放大重建图像的峰值信噪比(PSNR)平均提高了0.35 dB、0.47 dB,结构相似性(SSIM)平均提高了0.0054、0.016。 展开更多
关键词 超分辨率重建 生成对抗网络 注意力机制 多尺度特征融合
下载PDF
多尺度混合注意力网络的图像超分辨率重建 被引量:2
10
作者 李云红 马登飞 +3 位作者 于惠康 苏雪平 李嘉鹏 史含驰 《西安工程大学学报》 CAS 2023年第3期92-100,共9页
针对现有超分辨率(super-resolution)重建算法重建出的图像存在高频细节丢失、结构化失真的问题,结合多尺度混合注意力网络,给出一种新的重建算法。首先,设计了一种多尺度残差模块(multi-scale residual module,MRM),提取不同尺度信息... 针对现有超分辨率(super-resolution)重建算法重建出的图像存在高频细节丢失、结构化失真的问题,结合多尺度混合注意力网络,给出一种新的重建算法。首先,设计了一种多尺度残差模块(multi-scale residual module,MRM),提取不同尺度信息的特征并进行融合来获取包含更多信息的浅层特征;其次,采用残差混合注意力模块(residual hybrid attention module,RHAM),依次沿着通道和空间2个不同的维度增强网络特征提取能力,进行自适应的特征优化,提高高频特征的复用;最后,通过重建模块对提取的特征进行增强,获取相应的高分辨率图像。在基准数据集上进行测试,实验结果表明:文中提出的算法相较主流图像SR算法,在放大尺度为2、3、4倍时峰值信噪比(peak signal to noise ratio,PSNR)平均提高了0.104、0.224、0.146 dB,结构相似性(structural similarity index measure,SSIM)平均提高了0.0349、0.0276、0.0181。该算法能更有效地利用原始图像信息,重建出的图像在边缘和纹理细节等方面有一定的提高。 展开更多
关键词 超分辨率重建 多尺度残差 混合注意力网络 深度学习 特征融合
下载PDF
多尺度特征和注意力融合的生成对抗壁画修复 被引量:1
11
作者 陈永 陈锦 陶美风 《北京航空航天大学学报》 EI CAS CSCD 北大核心 2023年第2期254-264,共11页
针对现有深度学习图像修复算法修复壁画时,存在特征提取不足及细节重构丢失等问题,提出了一种多尺度特征和注意力融合的生成对抗壁画修复深度学习模型。设计多尺度特征金字塔网络提取壁画中不同尺度的特征信息,增强特征关联性;采用自注... 针对现有深度学习图像修复算法修复壁画时,存在特征提取不足及细节重构丢失等问题,提出了一种多尺度特征和注意力融合的生成对抗壁画修复深度学习模型。设计多尺度特征金字塔网络提取壁画中不同尺度的特征信息,增强特征关联性;采用自注意力机制及特征融合模块构建多尺度特征生成器,以获取丰富的上下文信息,提升网络的修复能力;引入最小化对抗损失与均方误差促进判别器的残差反馈,从而结合不同尺度的特征信息完成壁画修复。通过对真实敦煌壁画数字化修复的实验结果表明,所提算法能够有效保护壁画图像的边缘和纹理等重要特征信息,并且主观视觉效果及客观评价指标均优于比较算法。 展开更多
关键词 图像重构 壁画修复 生成对抗网络 多尺度特征融合 自注意力机制
下载PDF
融合先验信息的残差空间注意力人脸超分辨率重建模型
12
作者 袁健 李佳慧 《小型微型计算机系统》 CSCD 北大核心 2023年第5期1035-1042,共8页
针对公共场所监控图像中低分辨率人脸图像利用现有人脸识别系统识别准确率低的问题,提出了融合先验信息的残差空间注意力人脸超分辨率重建模型,用该模型对低分辨率人脸图像进行预处理后再进行识别可大大提升识别准确率.该模型将面部先... 针对公共场所监控图像中低分辨率人脸图像利用现有人脸识别系统识别准确率低的问题,提出了融合先验信息的残差空间注意力人脸超分辨率重建模型,用该模型对低分辨率人脸图像进行预处理后再进行识别可大大提升识别准确率.该模型将面部先验结构信息嵌入到生成对抗网络模型中,再采用残差空间注意力激活算法突出空间位置中携带高频信息的特征,最后使用多阶特征融合算法充分利用不同尺度的特征,防止携带高频信息的人脸特征在网络传播中丢失.实验结果表明,重建出的超分辨率人脸图像具有更多的面部细节特征,大大提高了对低分辨率人脸图像的识别准确率,并且与其他5种模型相比,新模型具有较低的耗时和较少的参数. 展开更多
关键词 面部先验信息 残差空间注意力 特征融合 超分辨率重建
下载PDF
复杂环境下多模态特征融合的疲劳驾驶检测 被引量:2
13
作者 高绮煌 谢凯 +3 位作者 贺正方 文畅 贺建飚 张伟 《电子测量技术》 北大核心 2023年第6期106-115,共10页
为了避免因疲劳驾驶而导致交通事故的发生,维护城市道路交通和驾乘人员生命安全,该项目针对传统疲劳驾驶检测方法存在着精度低、参数复杂、泛化能力差等核心问题,采用MTCNN模型和基于红外的rPPG等理论,在光照变化、部分遮挡和头部偏转... 为了避免因疲劳驾驶而导致交通事故的发生,维护城市道路交通和驾乘人员生命安全,该项目针对传统疲劳驾驶检测方法存在着精度低、参数复杂、泛化能力差等核心问题,采用MTCNN模型和基于红外的rPPG等理论,在光照变化、部分遮挡和头部偏转等复杂行车环境下精确提取驾驶员面部与生理信息;同时在深层挖掘多模态的特定疲劳信息后,结合多损失重构(MLR)的特征融合模块利用各模态间的互补信息,避免了单模态检测方法存在的局限性,进一步构建了多模态特征融合模型,增强模型的准确性与鲁棒性;最后考虑到疲劳的时序性,基于Bi-LSTM模型建立了疲劳驾驶检测模块。在自制数据集FAHD上展开实验,证明了红外生理特征提取模型的可靠性,多模态特征输入的有效性,同时与现有融合方法相比,本文方法融合后的预测结果与疲劳标定值间的相关系数提高了5.6%,均方根误差减少25%,疲劳检测系统准确率达到了96.7%,在推动智慧交通发展的同时对维护交通安全也有较好的积极意义。 展开更多
关键词 多模态 多损失重构特征融合 疲劳驾驶 远程光电容积描记术 深度学习
下载PDF
基于多分辨率特征融合的任意尺度图像超分辨率重建 被引量:1
14
作者 范文卓 吴涛 +4 位作者 许俊平 李庆庆 张建林 李美惠 魏宇星 《计算机工程》 CAS CSCD 北大核心 2023年第9期217-225,共9页
传统深度学习的图像超分辨率重建网络仅在固定分辨率上提取特征,存在无法综合高级语义信息、只能以特定尺度因子重建图像、泛化能力较弱、网络参数量较大等问题。提出一种基于多分辨率特征融合的任意尺度图像超分辨率重建算法MFSR。在... 传统深度学习的图像超分辨率重建网络仅在固定分辨率上提取特征,存在无法综合高级语义信息、只能以特定尺度因子重建图像、泛化能力较弱、网络参数量较大等问题。提出一种基于多分辨率特征融合的任意尺度图像超分辨率重建算法MFSR。在多分辨率特征融合编码阶段设计多分辨率特征提取模块以提取不同分辨率特征,通过构建双重注意力模块增强网络特征提取能力,使不同分辨率特征之间进行充分交互,以获取信息丰富的融合特征图。在图像重建阶段利用多层感知机对融合特征图进行解码,实现任意尺度的图像超分辨率重建。实验结果表明,在Set5数据集上分别以尺度因子2、3、4、6、8进行测试,所提算法的峰值信噪比分别为38.62、34.70、32.41、28.96、26.62 dB,模型参数量为0.72×106,在大幅减少参数量的同时能保持重建质量,可以实现任意尺度的图像超分辨率重建,性能优于SRCNN、VDSR、EDSR等主流算法。 展开更多
关键词 多分辨率特征融合 超分辨率重建 任意尺度 双重注意力 特征交互
下载PDF
融合超分辨率重建的YOLOv5松枯死木识别模型 被引量:1
15
作者 王文瑾 游子绎 +5 位作者 邵历江 李小林 吴松青 张珠河 黄世国 张飞萍 《农业工程学报》 EI CAS CSCD 北大核心 2023年第5期137-145,共9页
为解决山地地形起伏大、无人机飞行高度高导致图像中尺度小且纹理模糊的松枯死木识别困难问题,该研究提出了一种在特征层级进行超分辨率重建的YOLOv5松枯死木识别算法。在YOLOv5网络中添加选择性核特征纹理迁移模块生成有细节纹理的高... 为解决山地地形起伏大、无人机飞行高度高导致图像中尺度小且纹理模糊的松枯死木识别困难问题,该研究提出了一种在特征层级进行超分辨率重建的YOLOv5松枯死木识别算法。在YOLOv5网络中添加选择性核特征纹理迁移模块生成有细节纹理的高清检测特征图,自适应改变感受野的机制分配权重,将更多注意力集中在纹理细节,提升了小目标和模糊目标的识别精度。同时,使用前景背景平衡损失函数抑制背景噪声干扰,增加正样本的梯度贡献,改善正负样本分布不平衡问题。试验结果表明,改进后算法在交并比(intersection over union,IoU)阈值取0.5时的平均精度均值(mean average precision,mAP50)为92.7%,mAP50~95(以步长0.05从0.5到0.95间取IoU阈值下的平均mAP)为62.1%,APsmall(小目标平均精度值)为53.2%,相比于原算法mAP50提高了3.2个百分点,mAP50~95提升了8.3个百分点,APsmall提升了15.8个百分点。不同算法对比分析表明,该方法优于Faster R-CNN、YOLOv4、YOLOX、MT-YOLOv6,QueryDet、DDYOLOv5等深度学习算法,mAP50分别提高了16.7、15.3、2.5、2.8、12.3和1.2个百分点。改进后松枯死木识别算法具有较高精度,有效缓解了小目标与纹理模糊目标识别困难问题,为后续疫木清零提供技术支持。 展开更多
关键词 无人机 图像识别 松枯死木 小目标检测 超分辨率重建 特征融合
下载PDF
双注意力引导的细节和结构信息融合图像去雾网络 被引量:1
16
作者 高继蕊 李华锋 +2 位作者 张亚飞 谢明鸿 李凡 《电子学报》 EI CAS CSCD 北大核心 2023年第1期160-171,共12页
雾图像结构信息弱化、边缘细节信息丢失,严重影响其在高水平视觉任务的使用.现有大部分去雾方法对图像细节信息的恢复并不理想,影响了图像去雾的整体效果.为此,本文提出一种双注意力引导的细节和结构信息融合去雾网络.该网络主要由空间... 雾图像结构信息弱化、边缘细节信息丢失,严重影响其在高水平视觉任务的使用.现有大部分去雾方法对图像细节信息的恢复并不理想,影响了图像去雾的整体效果.为此,本文提出一种双注意力引导的细节和结构信息融合去雾网络.该网络主要由空间-通道双注意力联合模块、细节和结构信息融合模块以及多尺度特征重建模块组成.其中,空间-通道双注意力联合模块通过联合空间和通道两个维度的注意力进行特征提取,实现雾图像中细节和结构信息的增强;细节和结构信息融合模块将结构信息和边缘细节信息融合为注意力权重和逆向注意力权重,以进一步增强这两种信息;多尺度特征重建模块将提取到的特征重建为清晰图像.实验结果表明,本文方法的去雾效果在定量评价和视觉效果上均优于对比方法. 展开更多
关键词 图像去雾 图像恢复 信息融合 注意力 特征重建
下载PDF
多维注意力机制与选择性特征融合的图像超分辨率重建 被引量:1
17
作者 温剑 邵剑飞 +3 位作者 刘杰 邵建龙 冯宇航 叶榕 《光学精密工程》 EI CAS CSCD 北大核心 2023年第17期2584-2597,共14页
针对图像超分辨率重建过程中提取低分辨率特征效果较差,大量高频信息丢失导致的边缘模糊和伪影问题,提出了融合多维注意力机制与选择性特征融合作为图像特征提取模块的图像超分辨率重建方法。网络由若干个基本块和残差操作构建模型的特... 针对图像超分辨率重建过程中提取低分辨率特征效果较差,大量高频信息丢失导致的边缘模糊和伪影问题,提出了融合多维注意力机制与选择性特征融合作为图像特征提取模块的图像超分辨率重建方法。网络由若干个基本块和残差操作构建模型的特征提取结构,其核心是一种提取图像特征的异构组卷积块,该模块的对称组卷积块以并行的方式进行卷积提取不同通道间的内部信息特征并进行选择性特征融合,互补卷积块通过全维度动态卷积从空域、输入输出维度和核维度捕捉遗漏的上下文信息,对称组卷积块和互补卷积块连接后的特征采用特征增强残差块去除冗余造成干扰的无用信息。模型通过5种消融实验证明其设计的合理性,在Set5,Set14,BSDS100和Urban100测试集上与其他主流的超分辨率重建方法进行对比,峰值信噪比(PSNR)和结构相似性(SSIM)定量数据均有提升,尤其在放大因子为3的Set5数据集上比次优算法CARN-M均提升0.06 dB,结果表明提出模型具有更优的性能指标和更好的视觉效果。 展开更多
关键词 超分辨率重建 多维注意力机制 特征融合 残差网络
下载PDF
双交叉注意力自编码器改进视频异常检测 被引量:4
18
作者 戚小莎 曾静 吉根林 《南京师大学报(自然科学版)》 CAS 北大核心 2023年第1期110-119,共10页
针对视频中包含的异常事件数量稀少,信息密集的特征容易被遗漏等问题,本文提出一种双交叉注意力自编码器的视频异常事件检测方法.首先预处理视频集,提取视频帧中表观和运动特征,然后设计双交叉注意力模块融入自编码器中,使特征图在自编... 针对视频中包含的异常事件数量稀少,信息密集的特征容易被遗漏等问题,本文提出一种双交叉注意力自编码器的视频异常事件检测方法.首先预处理视频集,提取视频帧中表观和运动特征,然后设计双交叉注意力模块融入自编码器中,使特征图在自编码器中能够更好地关联全局特征.其次将提取后的特征放入各自的自编码器中学习正常行为,使含有正常事件的视频帧能被模型重构,含有异常事件的视频帧则无法被重构.最后通过检测模型得到各个视频帧的重构误差从而进行异常事件判定.该方法可以以局部特征关联全局特征的方式有效提高视频异常事件检测的准确率,通过在多个公开数据集中进行实验验证,证明该方法优于其他同类方法. 展开更多
关键词 异常检测 自编码器 重构 深度学习 神经网络 特征提取 融合
下载PDF
融合多路径与混合注意力的遥感图像超分辨率重建 被引量:1
19
作者 李千 赵逢禹 《小型微型计算机系统》 CSCD 北大核心 2023年第7期1508-1513,共6页
针对遥感图像细节信息丰富、内容复杂、部分特征信息重建丢失以及现有遥感图像重建模型对感受野尺度关注不足带来的问题,本文提出一种融合多路径与混合注意力机制的算法用于遥感图像的超分辨率重建.该算法首先利用浅层特征提取模块提取... 针对遥感图像细节信息丰富、内容复杂、部分特征信息重建丢失以及现有遥感图像重建模型对感受野尺度关注不足带来的问题,本文提出一种融合多路径与混合注意力机制的算法用于遥感图像的超分辨率重建.该算法首先利用浅层特征提取模块提取浅层特征图;然后通过多层级特征提取模块进行深层特征的自适应学习;接着使用全局特征融合模块进行多层级特征融合和全局残差学习;最后经上采样模块和重建模块得到高分辨率图像.算法重点关注各层级特征提取和全局特征的融合,并通过横向扩展网络以便于利用不同的卷积核来获得不同感受野,同时结合混合注意力机制来关注高频信息,最终取得不错的重建效果.实验表明,该算法在峰值信噪比和结构相似度两个评价指标上相对于主流算法均有提升,视觉效果上也能够恢复更多的细节信息. 展开更多
关键词 遥感图像 超分辨率重建 特征融合 注意力机制 卷积神经网络
下载PDF
抽样切分卷积实现跨尺度特征融合及内镜图像去模糊
20
作者 严靖易 李小霞 +2 位作者 秦佳敏 文黎明 周颖玥 《计算机应用研究》 CSCD 北大核心 2023年第4期1233-1238,共6页
针对内镜图像去模糊过程中语义信息难以提取和细节纹理重建困难的问题,设计了一种新的抽样切分卷积,并将其应用于跨尺度特征融合过程中:通过等间隔抽样将大尺度特征无损切分成小尺度特征块,再与小尺度特征进行卷积融合。过程中大尺度特... 针对内镜图像去模糊过程中语义信息难以提取和细节纹理重建困难的问题,设计了一种新的抽样切分卷积,并将其应用于跨尺度特征融合过程中:通过等间隔抽样将大尺度特征无损切分成小尺度特征块,再与小尺度特征进行卷积融合。过程中大尺度特征的所有值都参与了特征融合,避免了细节信息的丢失;未对小尺度特征进行插值,避免了语义信息的模糊。为进一步实现特征互补,设计了特征交互融合模块,先用语义特征激活细节特征,再将两者融合。针对内镜图像亮通道、中间通道和暗通道的特征差异性设计了梯度重建和频域重建损失函数,提升了重建图像的锐度。在EAD和Kvasir-SEG数据集上,该算法的PSNR分别达到32.88 dB和33.01 dB,SSIM分别达到0.972和0.973。实验结果表明,该算法的性能优于主流去模糊算法,视觉上重建图像的纹理更清晰,且未产生伪影。 展开更多
关键词 内镜图像重建 抽样切分卷积 去模糊 跨尺度特征融合 损失函数
下载PDF
上一页 1 2 5 下一页 到第
使用帮助 返回顶部