期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
SAF-CNN:面向嵌入式FPGA的卷积神经网络稀疏化加速框架 被引量:2
1
作者 谢坤鹏 仪德智 +4 位作者 刘义情 刘航 赫鑫宇 龚成 卢冶 《计算机研究与发展》 EI CSCD 北大核心 2023年第5期1053-1072,共20页
传统的卷积神经网络加速器及推理框架在资源约束的FPGA上部署模型时,往往面临设备种类繁多且资源极端受限、数据带宽利用不充分、算子操作类型复杂难以适配且调度不合理等诸多挑战.提出一种面向嵌入式FPGA的卷积神经网络稀疏化加速框架(... 传统的卷积神经网络加速器及推理框架在资源约束的FPGA上部署模型时,往往面临设备种类繁多且资源极端受限、数据带宽利用不充分、算子操作类型复杂难以适配且调度不合理等诸多挑战.提出一种面向嵌入式FPGA的卷积神经网络稀疏化加速框架(sparse acceleration framework of convolutional neural network, SAF-CNN),通过软硬件协同设计的方法,从硬件加速器与软件推理框架2个角度进行联合优化.首先, SAF-CNN构建并行计算阵列,并且设计并行编解码方案,实现单周期多数据的传输,有效减少通信代价.其次,设计细粒度结构化块划分剪枝算法,于输入通道维度进行块内裁剪来获得稀疏且规则的权重矩阵,借此显著降低计算规模和DSP乘法器等资源占用.然后,提出一种兼容深度可分离卷积的输入通道维度动态拓展及运行时调度策略,实现输入通道参数灵活适配与逐通道卷积和逐点卷积的资源复用.最后,提出一种计算图重构及硬件算子融合优化方法,提升硬件执行效率.实验采用2种资源受限的低端FPGA异构平台Intel CycloneV与Xilinx ZU3EG,结果表明SAF-CNN加速器可分别实现76.3GOPS与494.3GOPS的计算性能.与多核CPU相比,SAF-CNN在进行SSD_MobileNetV1目标模型检测时,可实现3.5倍与2.2倍的性能提升,模型推理速度高达26.5fps. 展开更多
关键词 卷积神经网络 模型压缩 计算图 加速器设计 推理框架
下载PDF
爸爸戒烟
2
作者 仪德智 王月春 《小学生阅读与写作(五年级版)》 2011年第5期1-2,共2页
爸爸开始戒烟。起初,他闻着空烟盒勉强过得去。后来,烟瘾犯了,他只好大口喝水。妈妈见他实在可怜,从烟盒抽出一支烟递给他。爸爸眼睛一亮,刚要去接,又把手缩回去,装着毫不在乎地说:
关键词 戒烟 烟盒 烟瘾
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部