-
题名一种高效的稀疏卷积神经网络加速器的设计与实现
被引量:2
- 1
-
-
作者
余成宇
李志远
毛文宇
鲁华祥
-
机构
中国科学院半导体研究所
中国科学院大学
中国科学院脑科学与智能技术卓越创新中心
半导体神经网络智能感知与计算技术北京市重点实验室
-
出处
《智能系统学报》
CSCD
北大核心
2020年第2期323-333,共11页
-
基金
国家自然科学基金项目(61701473)
中国科学院STS计划项目(KFJ-STS-ZDTP-070)
+2 种基金
中国科学院国防科技创新基金项目(CXJJ-17-M152)
中国科学院战略性先导科技专项(A类)(XDA18040400)
北京市科技计划项目(Z181100001518006)。
-
文摘
针对卷积神经网络计算硬件化实现困难的问题,之前大部分卷积神经网络加速器的设计都集中于解决计算性能和带宽瓶颈,忽视了卷积神经网络稀疏性对加速器设计的重要意义,近来少量的能够利用稀疏性的卷积神经网络加速器设计也往往难以同时兼顾计算灵活度、并行效率和资源开销。本文首先比较了不同并行展开方式对利用稀疏性的影响,分析了利用稀疏性的不同方法,然后提出了一种能够利用激活稀疏性加速卷积神经网络计算的同时,相比于同领域其他设计,并行效率更高、额外资源开销更小的并行展开方法,最后完成了这种卷积神经网络加速器的设计并在FPGA上实现。研究结果表明:运行VGG-16网络,在ImageNet数据集下,该并行展开方法实现的稀疏卷积神经网络加速器和使用相同器件的稠密网络设计相比,卷积性能提升了108.8%,整体性能提升了164.6%,具有明显的性能优势。
-
关键词
卷积神经网络
稀疏性
嵌入式FPGA
ReLU
硬件加速
并行计算
深度学习
-
Keywords
convolutional neural network
sparsity
embedded FPGA
ReLU
hardware acceleration
parallel computing
deep learning
-
分类号
TN4
[电子电信—微电子学与固体电子学]
-