期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
结合Transformer的显著性目标检测
1
作者 闫於虎 王永雄 潘志群 《信息与控制》 CSCD 北大核心 2023年第3期382-390,共9页
显著性目标检测中学习有效的全局卷积特征至关重要。卷积神经网络模型越深越能获得更好的全局感受野,但这样往往会丢失局部信息,还会导致目标边缘粗糙。为了解决这个问题,引用了一个新的基于注意力的编码器Vision Transformer,相比于CNN... 显著性目标检测中学习有效的全局卷积特征至关重要。卷积神经网络模型越深越能获得更好的全局感受野,但这样往往会丢失局部信息,还会导致目标边缘粗糙。为了解决这个问题,引用了一个新的基于注意力的编码器Vision Transformer,相比于CNN(convolutional neural network)而言,可以表示浅层到深层的全局特征,并建立图像中各区域的自注意力关系。具体地,首先采用Transformer编码器提取目标特征,编码器在浅层中保留了更多的局部边缘信息,以恢复最终显著图的空间细节。然后,利用Transformer编码器前后层之间继承的全局信息,将Transformer每一层输出特征最终预测。在此基础上,浅层的边缘监督以获取丰富的边缘信息,再将浅层信息与全局位置信息相结合。最后,在解码器中采用渐近融合的方式生成最终显著性图,促进高层信息和浅层信息地充分融合,更准确地定位显著目标及其边缘。实验结果表明,在5个广泛使用的数据集上,在不进行任何后处理的情况下,提出的方法性能好于最先进的方法。 展开更多
关键词 TRANSFORMER 显著性检测 边缘监督 渐近融合
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部