期刊文献+

基于改进注意力迁移的实时目标检测方法 被引量:2

Real time object detection method based on improved attention transfer
下载PDF
导出
摘要 目前深度神经网络模型需要部署在资源受限的环境中,故需要设计高效紧凑的网络结构。针对设计紧凑的神经网络提出一种基于改进注意力迁移的模型压缩方法(KE),主要使用一个宽残差教师网络(WRN)指导一个紧凑的学生网络(KENet),将空间和通道的注意力迁移到学生网络来提升性能,并将该方法应用于实时目标检测。在CIFAR上的图像分类实验验证了经过改进注意力迁移的知识蒸馏方法能够提升紧凑模型的性能,在VOC上的目标检测实验验证了模型KEDet具有很好的精度(72.7 mAP)和速度(86 fps)。实验结果充分说明基于改进注意力迁移的目标检测模型具有很好的准确性和实时性。 Recently,deep neural networks need to be deployed with low memory and computing resources,so it is necessary to design an efficient and compact network structure.This paper proposed a model compression method(KE)based on improved attention transfer for the design of compact neural networks,which mainly used a wide residual teacher network(WRN)to guide a compact student network(KENet)by extracting both spatial and channel-wise attention to improve the performance,and applied this method to real-time object detection.The image classification experiment on CIFAR verifies that the knowledge distillation method with improved attention transfer can improve the performance of the compact model.The object detection experiment on VOC verifies that the model KEDet has good accuracy(72.7 mAP)and time performance(86 fps).The experimental results show that the object detection model based on improved attention transfer has good accuracy and real-time performance.
作者 张弛 刘宏哲 Zhang Chi;Liu Hongzhe(Beijing Key Laboratory of Information Service Engineering,Beijing Union University,Beijing 100101,China;College of Robotics,Beijing Union University,Beijing 100101,China)
出处 《计算机应用研究》 CSCD 北大核心 2021年第4期1212-1215,共4页 Application Research of Computers
基金 国家自然科学基金资助项目(61871039,61906017,61802019) 北京市教委项目(KM202111417001,KM201911417001) 视觉智能协同创新中心项目(CYXC2011) 北京联合大学学术研究项目(ZB10202003,ZK80202001,XP202015,BPHR2019AZ01)。
关键词 神经网络 深度学习 目标检测 知识蒸馏 注意力迁移 neural network deep learning object detection knowledge distillation attention transfer
  • 相关文献

参考文献3

二级参考文献3

共引文献147

同被引文献3

引证文献2

二级引证文献2

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部