期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
基于门控卷积与注意迁移的二阶图像修复 被引量:2
1
作者 彭晏飞 顾丽睿 王刚 《液晶与显示》 CAS CSCD 北大核心 2023年第5期625-635,共11页
针对现有修复算法在处理较大面积缺失时易产生伪影且与原图像语义不符的问题,提出了基于门控卷积与注意迁移的二阶图像修复方法,通过加强待修复图像内部语义对修复网络的影响来确保修复结果整体语义的一致性。首先使用多层卷积对缺损图... 针对现有修复算法在处理较大面积缺失时易产生伪影且与原图像语义不符的问题,提出了基于门控卷积与注意迁移的二阶图像修复方法,通过加强待修复图像内部语义对修复网络的影响来确保修复结果整体语义的一致性。首先使用多层卷积对缺损图像进行粗略修复;然后将粗略修复结果输入改进的细化修复网络,使用门控卷积和注意迁移网络对图像内部纹理细节进行修复处理,在编解码阶段引入SimAM模块作为注意力机制,强化对待修复图像中重要信息的筛选能力;最后通过谱归一化的马尔科夫判别器判别真伪同时提供对抗损失,将感知损失与多尺度结构相似性损失作为重建损失再将其与对抗损失相结合作为损失函数。与其他图像修复方法的对比实验表明,本文方法较其中最好结果在结构相似性上提升1.47%,峰值信噪比上提升5.48%。本文方法修复结果更加真实自然且在各种尺寸缺失下均实现了理想的修复效果。 展开更多
关键词 图像处理 图像修复 门控卷积 注意迁移 对抗损失
下载PDF
基于多重迁移注意力的增量式图像去雾算法 被引量:1
2
作者 韦金阳 王科平 +1 位作者 杨艺 费树岷 《系统仿真学报》 CAS CSCD 北大核心 2024年第4期969-980,共12页
为提高深度神经网络去雾算法对增补数据集的处理能力,并使网络差异化处理重要程度不同的图像特征以提高网络去雾能力,提出一种基于多重迁移注意力的增量式去雾算法。通过自编码器形式的教师注意力生成网络提取标签和雾霾的多重注意力,... 为提高深度神经网络去雾算法对增补数据集的处理能力,并使网络差异化处理重要程度不同的图像特征以提高网络去雾能力,提出一种基于多重迁移注意力的增量式去雾算法。通过自编码器形式的教师注意力生成网络提取标签和雾霾的多重注意力,作为特征迁移媒介网络的标签约束网络训练,形成与教师注意力尽可能相近的迁移媒介注意力,并将其融入学生去雾网络的特征中,提高学生去雾网络的去雾能力;通过增量式训练方法提高学生去雾网络对增补数据集的处理能力。结果表明:所提算法对ITS、OTS以及真实雾图上皆具有较好的处理能力,在保证去雾图像像素结构完整、颜色不失真的同时具有较好的去雾效果,算法处理后的图像在主观视觉效果和客观评价指标上皆优于对比算法。 展开更多
关键词 深度学习 图像去雾 迁移注意 增量式训练
下载PDF
基于改进注意力迁移的实时目标检测方法 被引量:2
3
作者 张弛 刘宏哲 《计算机应用研究》 CSCD 北大核心 2021年第4期1212-1215,共4页
目前深度神经网络模型需要部署在资源受限的环境中,故需要设计高效紧凑的网络结构。针对设计紧凑的神经网络提出一种基于改进注意力迁移的模型压缩方法(KE),主要使用一个宽残差教师网络(WRN)指导一个紧凑的学生网络(KENet),将空间和通... 目前深度神经网络模型需要部署在资源受限的环境中,故需要设计高效紧凑的网络结构。针对设计紧凑的神经网络提出一种基于改进注意力迁移的模型压缩方法(KE),主要使用一个宽残差教师网络(WRN)指导一个紧凑的学生网络(KENet),将空间和通道的注意力迁移到学生网络来提升性能,并将该方法应用于实时目标检测。在CIFAR上的图像分类实验验证了经过改进注意力迁移的知识蒸馏方法能够提升紧凑模型的性能,在VOC上的目标检测实验验证了模型KEDet具有很好的精度(72.7 mAP)和速度(86 fps)。实验结果充分说明基于改进注意力迁移的目标检测模型具有很好的准确性和实时性。 展开更多
关键词 神经网络 深度学习 目标检测 知识蒸馏 注意迁移
下载PDF
基于注意力迁移的跨语言关系抽取方法 被引量:1
4
作者 吴婧 杨百龙 田罗庚 《计算机应用研究》 CSCD 北大核心 2022年第2期417-423,共7页
针对互联网上日渐丰富的多语言文本和匮乏大规模标注平行语料库的问题,为了从多语言的信息源挖掘语言间的关联性与扩展知识图谱,提出了基于注意力迁移的跨语言关系提取方法。首先针对语言间的实际平行语料情况,分类进行跨语言平行语料映... 针对互联网上日渐丰富的多语言文本和匮乏大规模标注平行语料库的问题,为了从多语言的信息源挖掘语言间的关联性与扩展知识图谱,提出了基于注意力迁移的跨语言关系提取方法。首先针对语言间的实际平行语料情况,分类进行跨语言平行语料映射,并针对缺乏种子词典的低资源语言对,提出神经网络翻译模型获取目标语言数据集并保存多语言间的对应注意力权重关系,然后利用BERT端对端的联合抽取模型抽取训练数据实体关系特征,反向迁移语言间注意力权重关系,最后利用反向迁移的注意力进行增强的关系抽取。实验表明,该模型的关系提取效果相比其他模型在准确率和回归上都有所提升,在缺乏双语词典情况下也表现出较好的性能。 展开更多
关键词 神经机器翻译 关系提取 无监督 注意迁移 BERT预训练
下载PDF
基于迁移学习和EfficientNetV2的遥感图像场景分类
5
作者 梁杰文 《北京测绘》 2024年第11期1521-1525,共5页
针对传统遥感图像分类方法分类准确率低的问题,本文提出了一种结合迁移学习与高效缩小版神经网络第二代模型(EfficientNetV2)的遥感图像场景分类方法。首先,选取参数量较少且分类精度较高的EfficientNetV2作为基础架构;其次,通过迁移学... 针对传统遥感图像分类方法分类准确率低的问题,本文提出了一种结合迁移学习与高效缩小版神经网络第二代模型(EfficientNetV2)的遥感图像场景分类方法。首先,选取参数量较少且分类精度较高的EfficientNetV2作为基础架构;其次,通过迁移学习策略,以预训练的网络参数来初始化模型,有效避免了模型的过拟合现象;最后,在航空图像数据集(AID)和遥感图像场景数据集(NWPU45)上进行实验,结果显示,该方法在这两个数据集上的分类准确率分别达到了95.76%和94.76%,充分证明了本文方法的有效性和优越性。 展开更多
关键词 遥感图像 场景分类 EfficientNetV2 注意力机制 迁移学习
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部