期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
基于指数移动平均知识蒸馏的神经网络低比特量化方法 被引量:2
1
作者 吕君环 许柯 王东 《模式识别与人工智能》 CSCD 北大核心 2021年第12期1143-1151,共9页
目前存储和计算成本严重阻碍深度神经网络应用和推广,而神经网络量化是一种有效的压缩方法.神经网络低比特量化存在的显著困难是量化比特数越低,网络分类精度也越低.为了解决这一问题,文中提出基于指数移动平均知识蒸馏的神经网络低比... 目前存储和计算成本严重阻碍深度神经网络应用和推广,而神经网络量化是一种有效的压缩方法.神经网络低比特量化存在的显著困难是量化比特数越低,网络分类精度也越低.为了解决这一问题,文中提出基于指数移动平均知识蒸馏的神经网络低比特量化方法.首先利用少量图像进行自适应初始化,训练激活和权重的量化步长,加快量化网络收敛.再引入指数移动平均(EMA)知识蒸馏的思想,利用EMA对蒸馏损失和任务损失进行归一化,指导量化网络训练.在ImageNet、CIFAR-10数据集上的分类任务表明,文中方法可获得接近或超过全精度网络的性能. 展开更多
关键词 深度学习 网络量化 知识蒸馏 模型压缩
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部