期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
一种面向卷积神经网络加速器的高性能乘累加器
被引量:
3
1
作者
孔鑫
陈刚
+2 位作者
龚国良
鲁华祥
毛文宇
《西安电子科技大学学报》
EI
CAS
CSCD
北大核心
2020年第4期55-63,93,共10页
针对现有卷积神经网络加速器中的乘累加器普遍存在的面积大、功耗高、速度慢的问题,设计了一种基于传输门结构的全定制高性能乘累加器。提出了一种适用于乘累加器的新型累加数据压缩结构,减少了硬件开销;提出了一种新的并行加法器架构,...
针对现有卷积神经网络加速器中的乘累加器普遍存在的面积大、功耗高、速度慢的问题,设计了一种基于传输门结构的全定制高性能乘累加器。提出了一种适用于乘累加器的新型累加数据压缩结构,减少了硬件开销;提出了一种新的并行加法器架构,在与Brent Kung加法器相同硬件开销的情况下,降低了门延迟级数,提高了计算速度;利用传输门的优点对乘累加器各单元电路进行优化设计。基于笔者方法设计的16乘8定点数高性能乘累加器在SMIC 130nm tt工艺角下关键路径延迟为1.173ns,版图面积为9049.41μm2,800MHz下平均功耗为4.153mW。对比传统的乘累加器,速度约提高了37.42%,面积约减小了47.87%,在同等条件下功耗约降低了56.77%。
展开更多
关键词
乘
累加
器
传输门
累加压缩
卷积神经网络
高性能
下载PDF
职称材料
题名
一种面向卷积神经网络加速器的高性能乘累加器
被引量:
3
1
作者
孔鑫
陈刚
龚国良
鲁华祥
毛文宇
机构
中国科学院半导体研究所
中国科学院大学
中国科学院脑科学与智能技术卓越创新中心
半导体神经网络智能感知与计算技术北京市重点实验室
出处
《西安电子科技大学学报》
EI
CAS
CSCD
北大核心
2020年第4期55-63,93,共10页
基金
国家自然科学基金(U19A2080,U1936106,61701473)
中国科学院战略性先导科技专项(A类)(XDA18040400)
+3 种基金
中国科学院STS项目(KFJ-STS-ZDTP-070)
高技术项目(31513070501)
北京市科技计划项目(Z181100001518006)
科技创新特区项目(1916312ZD00902201)。
文摘
针对现有卷积神经网络加速器中的乘累加器普遍存在的面积大、功耗高、速度慢的问题,设计了一种基于传输门结构的全定制高性能乘累加器。提出了一种适用于乘累加器的新型累加数据压缩结构,减少了硬件开销;提出了一种新的并行加法器架构,在与Brent Kung加法器相同硬件开销的情况下,降低了门延迟级数,提高了计算速度;利用传输门的优点对乘累加器各单元电路进行优化设计。基于笔者方法设计的16乘8定点数高性能乘累加器在SMIC 130nm tt工艺角下关键路径延迟为1.173ns,版图面积为9049.41μm2,800MHz下平均功耗为4.153mW。对比传统的乘累加器,速度约提高了37.42%,面积约减小了47.87%,在同等条件下功耗约降低了56.77%。
关键词
乘
累加
器
传输门
累加压缩
卷积神经网络
高性能
Keywords
multiply accumulator
transmission gate
accumulation and compression
convolutional neural network
high performance
分类号
TN4 [电子电信—微电子学与固体电子学]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
一种面向卷积神经网络加速器的高性能乘累加器
孔鑫
陈刚
龚国良
鲁华祥
毛文宇
《西安电子科技大学学报》
EI
CAS
CSCD
北大核心
2020
3
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部