针对金属涂层缺陷图像分割中存在特征提取能力弱和分割精度低的问题,提出了一种改进的U^(2)-Net分割模型。首先,在U型残差块(RSU)中嵌入改进的增大感受野模块(receptive field block light,RFB_l),组成新的特征提取层,增强对细节特征的...针对金属涂层缺陷图像分割中存在特征提取能力弱和分割精度低的问题,提出了一种改进的U^(2)-Net分割模型。首先,在U型残差块(RSU)中嵌入改进的增大感受野模块(receptive field block light,RFB_l),组成新的特征提取层,增强对细节特征的学习能力,解决了网络由于感受野受限造成分割精度低的问题;其次,在U^(2)-Net分割模型的解码阶段引入有效的边缘增强注意力机制(contour enhanced attention,CEA),抑制网络中的冗余特征,获取具有详细位置信息的特征注意力图,增强了边界与背景信息的差异性,从而达到更精确的分割效果。实验结果表明,该模型在两个金属涂层剥落与腐蚀数据集上的平均交并比、准确率、查准率、召回率和F_1-measure分别达到80.36%、96.29%、87.43%、84.61%和86.00%,相比于常用的SegNet、U-Net以及U^(2)-Net分割网络的性能都有较大提升。展开更多
针对YOLOv7模型在口罩佩戴检测任务中特征提取能力不足、模型感受野相对较小等问题,提出一种改进YOLOv7的口罩佩戴检测算法。首先,在YOLOv7模型的主干网络引入感受野模块(receptive field block,RFB),增大模型的感受野;其次,在YOLOv7模...针对YOLOv7模型在口罩佩戴检测任务中特征提取能力不足、模型感受野相对较小等问题,提出一种改进YOLOv7的口罩佩戴检测算法。首先,在YOLOv7模型的主干网络引入感受野模块(receptive field block,RFB),增大模型的感受野;其次,在YOLOv7模型的头部网络引入卷积块注意力模块(convolutional block attention module,CBAM),提取关键信息,忽略无关信息,增强特征图的信息表达能力,提高模型的检测能力。实验结果表明:改进后的YOLOv7口罩佩戴检测算法精确率达到95.7%,较原YOLOv7算法提高了5.6百分点;平均精度均值达到96.6%,提高了2.6百分点。相比于目前主流的口罩佩戴检测算法,改进后的YOLOv7口罩佩戴检测算法可以更加准确地检测出口罩佩戴情况。展开更多
基金National Key Research and Development Program of China(No.2020YFB1707700)Fundamental Research Funds for the Central Universities,China(No.20D111201)。
文摘基于计算机视觉的虚拟试衣(virtual try-on,VITON)技术是指将试穿服装按照模特图像特征进行扭曲并合成到模特图像中,以替换原有服装部分。当前的虚拟试衣技术主要存在两个问题:保留模特图像头部、下装和背景等原有特征不足;扭曲后的试穿服装与模特图像匹配度不高。针对这两个问题,提出一种原有特征保持虚拟试衣网络(original feature preserving virtual try-on network,OFP-VTON),由语义分割图生成、试穿服装扭曲和试穿图像合成三部分组成。在试穿服装扭曲阶段通过使网络学习模特图像中所穿服装的扭曲映射,以更好地约束试穿服装扭曲;在试穿图像合成阶段提取并保留模特图像原有特征,并引入感受野模块(receptive field block,RFB)以尽可能保留试穿服装特征。在公开的VITON数据集上的定性与定量实验表明,OFP-VTON能更好地保留原有特征,扭曲后的试穿服装与模特图像匹配度高。
文摘由于低照度图像具有对比度低、细节丢失严重、噪声大等缺点,现有的目标检测算法对低照度图像的检测效果不理想.为此,本文提出一种结合空间感知注意力机制和多尺度特征融合(Spatial-aware Attention Mechanism and Multi-Scale Feature Fusion,SAM-MSFF)的低照度目标检测方法 .该方法首先通过多尺度交互内存金字塔融合多尺度特征,增强低照度图像特征中的有效信息,并设置内存向量存储样本的特征,捕获样本之间的潜在关联性;然后,引入空间感知注意力机制获取特征在空间域的长距离上下文信息和局部信息,从而增强低照度图像中的目标特征,抑制背景信息和噪声的干扰;最后,利用多感受野增强模块扩张特征的感受野,对具有不同感受野的特征进行分组重加权计算,使检测网络根据输入的多尺度信息自适应地调整感受野的大小.在ExDark数据集上进行实验,本文方法的平均精度(mean Average Precision,mAP)达到77.04%,比现有的主流目标检测方法提高2.6%~14.34%.