期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
深度神经网络模型压缩方法与进展
被引量:
10
1
作者
赖叶静
郝珊锋
黄定江
《华东师范大学学报(自然科学版)》
CAS
CSCD
北大核心
2020年第5期68-82,共15页
深度神经网络(Deep Neural Network, DNN)模型通过巨大的内存消耗和高计算量来实现强大的性能,难以部署在有限资源的硬件平台上.通过模型压缩来降低内存成本和加速计算已成为热点问题,近年来已有大量的这方面的研究工作.主要介绍了4种...
深度神经网络(Deep Neural Network, DNN)模型通过巨大的内存消耗和高计算量来实现强大的性能,难以部署在有限资源的硬件平台上.通过模型压缩来降低内存成本和加速计算已成为热点问题,近年来已有大量的这方面的研究工作.主要介绍了4种具有代表性的深度神经网络压缩方法,即网络剪枝、量化、知识蒸馏和紧凑神经网络设计;着重介绍了近年来具有代表性的压缩模型方法及其特点;最后,总结了模型压缩的相关评价标准和研究前景.
展开更多
关键词
深度
神经网络
压缩
网络
剪枝
量化
知识蒸馏
紧凑神经网络
下载PDF
职称材料
题名
深度神经网络模型压缩方法与进展
被引量:
10
1
作者
赖叶静
郝珊锋
黄定江
机构
华东师范大学数据科学与工程学院
出处
《华东师范大学学报(自然科学版)》
CAS
CSCD
北大核心
2020年第5期68-82,共15页
基金
国家自然科学基金(11501204,U1711262)。
文摘
深度神经网络(Deep Neural Network, DNN)模型通过巨大的内存消耗和高计算量来实现强大的性能,难以部署在有限资源的硬件平台上.通过模型压缩来降低内存成本和加速计算已成为热点问题,近年来已有大量的这方面的研究工作.主要介绍了4种具有代表性的深度神经网络压缩方法,即网络剪枝、量化、知识蒸馏和紧凑神经网络设计;着重介绍了近年来具有代表性的压缩模型方法及其特点;最后,总结了模型压缩的相关评价标准和研究前景.
关键词
深度
神经网络
压缩
网络
剪枝
量化
知识蒸馏
紧凑神经网络
Keywords
deep neural network compression
network pruning
quantification
knowledge distillation
compact neural network
分类号
TP391 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
深度神经网络模型压缩方法与进展
赖叶静
郝珊锋
黄定江
《华东师范大学学报(自然科学版)》
CAS
CSCD
北大核心
2020
10
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部