期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
一种面向卷积神经网络加速器的高性能乘累加器 被引量:3
1
作者 孔鑫 陈刚 +2 位作者 龚国良 鲁华祥 毛文宇 《西安电子科技大学学报》 EI CAS CSCD 北大核心 2020年第4期55-63,93,共10页
针对现有卷积神经网络加速器中的乘累加器普遍存在的面积大、功耗高、速度慢的问题,设计了一种基于传输门结构的全定制高性能乘累加器。提出了一种适用于乘累加器的新型累加数据压缩结构,减少了硬件开销;提出了一种新的并行加法器架构,... 针对现有卷积神经网络加速器中的乘累加器普遍存在的面积大、功耗高、速度慢的问题,设计了一种基于传输门结构的全定制高性能乘累加器。提出了一种适用于乘累加器的新型累加数据压缩结构,减少了硬件开销;提出了一种新的并行加法器架构,在与Brent Kung加法器相同硬件开销的情况下,降低了门延迟级数,提高了计算速度;利用传输门的优点对乘累加器各单元电路进行优化设计。基于笔者方法设计的16乘8定点数高性能乘累加器在SMIC 130nm tt工艺角下关键路径延迟为1.173ns,版图面积为9049.41μm2,800MHz下平均功耗为4.153mW。对比传统的乘累加器,速度约提高了37.42%,面积约减小了47.87%,在同等条件下功耗约降低了56.77%。 展开更多
关键词 累加 传输门 累加压缩 卷积神经网络 高性能
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部