期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
使用密集弱注意力机制的图像显著性检测 被引量:5
1
作者 项圣凯 曹铁勇 +1 位作者 方正 洪施展 《中国图象图形学报》 CSCD 北大核心 2020年第1期136-147,共12页
目的基于全卷积网络(FCN)模型的显著性检测(SOD)的研究认为,更大的解码网络能实现比小网络更好的检测效果,导致解码阶段参数量庞大。视觉注意力机制一定程度上缓解了模型过大的问题。本文将注意力机制分为强、弱注意力两种:强注意力能... 目的基于全卷积网络(FCN)模型的显著性检测(SOD)的研究认为,更大的解码网络能实现比小网络更好的检测效果,导致解码阶段参数量庞大。视觉注意力机制一定程度上缓解了模型过大的问题。本文将注意力机制分为强、弱注意力两种:强注意力能为解码提供更强的先验,但风险很大;相反,弱注意力机制风险更小,但提供的先验较弱;基于此提出并验证了采用弱注意力的小型网络架构也能达到大网络的检测精度这一观点。方法本文设计了全局显著性预测和基于弱注意力机制的边缘优化两个阶段,其核心是提出的密集弱注意力模块。它弥补了弱注意力的缺点,仅需少量额外参数,就能提供不弱于强注意力的先验信息。结果相同的实验环境下,提出的模型在5个数据集上取得了总体上更好的检测效果。同时,提出的方法将参数量控制在69.5 MB,检测速度达到了实时32帧/s。实验结果表明,与使用强注意力的检测方法相比,提出的密集弱注意力模块使得检测模型的泛化能力更好。结论本文目标是使用弱注意力机制来提高检测效能,为此设计了兼顾效率和风险的弱注意力模块。弱注意力机制可以提高解码特征的效率,从而压缩模型大小和加快检测速度,并在现有测试集上体现出更好的泛化能力。 展开更多
关键词 显著性检测 视觉注意力机制 编码—解码 全卷积网络 实时检测
原文传递
稀疏深度特征对传统显著性检测的优化 被引量:3
2
作者 洪施展 曹铁勇 +1 位作者 方正 项圣凯 《中国图象图形学报》 CSCD 北大核心 2019年第9期1493-1503,共11页
目的显著性目标检测算法主要分为基于低级特征的传统方法和基于深度学习的新方法,传统方法难以捕获对象的高级语义信息,基于深度学习的新方法能捕获高级语义信息却忽略了边缘特征。为了充分发挥两种方法的优势,基于将二者结合的思路,本... 目的显著性目标检测算法主要分为基于低级特征的传统方法和基于深度学习的新方法,传统方法难以捕获对象的高级语义信息,基于深度学习的新方法能捕获高级语义信息却忽略了边缘特征。为了充分发挥两种方法的优势,基于将二者结合的思路,本文利用稀疏能使得显著性对象指向性凝聚的优势,提出了一种基于稀疏自编码和显著性结果优化的方法。方法对VGG (visual geometry group)网络第4个池化层的特征图进行稀疏自编码处理,得到5张稀疏显著性特征图,再与传统方法得到的显著图一起输入卷积神经网络进行显著性结果优化。结果使用DRFI (discriminative regional feature integration)、HDCT (high dimensional color transform)、RRWR (regularized random walks ranking)和CGVS (contour-guided visual search)等传统方法在DUT-OMRON、ECSSD、HKU-IS和MSRA等公开数据集上进行实验,表明本文算法有效改善了显著性对象的F值和MAE (mean absolute error)值。在F值提高方面,优化后的DRFI方法提升最高,在HKU-IS数据集上提高了24. 53%。在MAE值降低方面,CGVS方法降低最少,在ECSSD数据集上降低了12. 78%,降低最多的接近50%。而且本模型结构简单,参数少,计算效率高,训练时间约5 h,图像的平均测试时间约为3 s,有很强的实际应用性。结论本文提出了一种显著性结果优化算法,实验结果表明算法有效改善了显著性对象F值和MAE值,在对显著性对象检测要求越来越准确的对象识别等任务中有较好的适应性和应用性前景。 展开更多
关键词 显著性检测 VGG 稀疏自编码 图像融合 卷积神经网络
原文传递
融合深度模型和传统模型的显著性检测 被引量:3
3
作者 方正 曹铁勇 +1 位作者 洪施展 项圣凯 《中国图象图形学报》 CSCD 北大核心 2018年第12期1864-1873,共10页
目的显著性检测是图像和视觉领域一个基础问题,传统模型对于显著性物体的边界保留较好,但是对显著性目标的自信度不够高,召回率低,而深度学习模型对于显著性物体的自信度高,但是其结果边界粗糙,准确率较低。针对这两种模型各自的优缺点... 目的显著性检测是图像和视觉领域一个基础问题,传统模型对于显著性物体的边界保留较好,但是对显著性目标的自信度不够高,召回率低,而深度学习模型对于显著性物体的自信度高,但是其结果边界粗糙,准确率较低。针对这两种模型各自的优缺点,提出一种显著性模型以综合利用两种方法的优点并抑制各自的不足。方法首先改进最新的密集卷积网络,训练了一个基于该网络的全卷积网络(FCN)显著性模型,同时选取一个现有的基于超像素的显著性回归模型,在得到两种模型的显著性结果图后,提出一种融合算法,融合两种方法的结果以得到最终优化结果,该算法通过显著性结果 Hadamard积和像素间显著性值的一对一非线性映射,将FCN结果与传统模型的结果相融合。结果实验在4个数据集上与最新的10种方法进行了比较,在HKU-IS数据集中,相比于性能第2的模型,F值提高了2. 6%;在MSRA数据集中,相比于性能第2的模型,F值提高了2. 2%,MAE降低了5. 6%;在DUT-OMRON数据集中,相比于性能第2的模型,F值提高了5. 6%,MAE降低了17. 4%。同时也在MSRA数据集中进行了对比实验以验证融合算法的有效性,对比实验结果表明提出的融合算法改善了显著性检测的效果。结论本文所提出的显著性模型,综合了传统模型和深度学习模型的优点,使显著性检测结果更加准确。 展开更多
关键词 显著性检测 密集卷积网络 全卷积网络 融合算法 HADAMARD积
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部