针对现有的CenterNet模型在行人检测中由于人体遮挡以及人体姿态多变等所引起的模型精度下降的问题,本文从三个方面对CenterNet进行改进。一是在原CenterNet基础之上设计了特征融合模块,该模块引入了反转卷积,从通道这一角度提取特征并...针对现有的CenterNet模型在行人检测中由于人体遮挡以及人体姿态多变等所引起的模型精度下降的问题,本文从三个方面对CenterNet进行改进。一是在原CenterNet基础之上设计了特征融合模块,该模块引入了反转卷积,从通道这一角度提取特征并与原特征进行融合,丰富了图像的特征表示,使其更好地定位到人体区域;二是提出了一种带有非局部注意力的检测头,通过计算特征图全局像素与当前特征像素相似度,从而对遮挡目标进行区分;三是对损失函数进行改进,将两项损失函数合并成一项,有效地减少了级联误差。实验结果表明,改进的CenterNet在WiderPerson数据集上的平均精度提升了3.29%,漏检率下降了3.26%。在数据集Human detection and tracking using RGB-D camera上的平均精度提升了2.66%,漏检率下降了2.46%。与原CenterNet相比,改进的CenterNet解决了该模型应用于行人检测中精度低的问题。展开更多
文摘针对现有的CenterNet模型在行人检测中由于人体遮挡以及人体姿态多变等所引起的模型精度下降的问题,本文从三个方面对CenterNet进行改进。一是在原CenterNet基础之上设计了特征融合模块,该模块引入了反转卷积,从通道这一角度提取特征并与原特征进行融合,丰富了图像的特征表示,使其更好地定位到人体区域;二是提出了一种带有非局部注意力的检测头,通过计算特征图全局像素与当前特征像素相似度,从而对遮挡目标进行区分;三是对损失函数进行改进,将两项损失函数合并成一项,有效地减少了级联误差。实验结果表明,改进的CenterNet在WiderPerson数据集上的平均精度提升了3.29%,漏检率下降了3.26%。在数据集Human detection and tracking using RGB-D camera上的平均精度提升了2.66%,漏检率下降了2.46%。与原CenterNet相比,改进的CenterNet解决了该模型应用于行人检测中精度低的问题。
基金supported by the National Natural Science Foundation of China(61471312)the National Natural Science Foundation of Hebei(F2012203189,F2015203072,C2014203212)