期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
支持OpenCL的GPU加速人工神经网络训练
被引量:
2
1
作者
祝伟华
付先珺
《计算机系统应用》
2011年第7期217-220,共4页
人工神经网络训练所包含的运算量随着网络中神经元的数量增多而加大,对于神经元较多的网络训练很耗时。提高人工神经网络训练速度的一个方法是对训练算法优化以减少计算量。由于人工神经网络训练算法包含大量的矩阵和向量运算,如果把优...
人工神经网络训练所包含的运算量随着网络中神经元的数量增多而加大,对于神经元较多的网络训练很耗时。提高人工神经网络训练速度的一个方法是对训练算法优化以减少计算量。由于人工神经网络训练算法包含大量的矩阵和向量运算,如果把优化的算法用运行在GPU上的OpenCL C语言实现,则训练速度相比传统基于CPU计算的实现会提高很多。从硬件的并行计算能力着手,以RPROP算法为例,对其运行在GPU上的OpenCL C语言实现作一些研究。
展开更多
关键词
加速
人工神经网络
RPROP
OPENCL
CPU
下载PDF
职称材料
题名
支持OpenCL的GPU加速人工神经网络训练
被引量:
2
1
作者
祝伟华
付先珺
机构
重庆大学软件工程学院
出处
《计算机系统应用》
2011年第7期217-220,共4页
文摘
人工神经网络训练所包含的运算量随着网络中神经元的数量增多而加大,对于神经元较多的网络训练很耗时。提高人工神经网络训练速度的一个方法是对训练算法优化以减少计算量。由于人工神经网络训练算法包含大量的矩阵和向量运算,如果把优化的算法用运行在GPU上的OpenCL C语言实现,则训练速度相比传统基于CPU计算的实现会提高很多。从硬件的并行计算能力着手,以RPROP算法为例,对其运行在GPU上的OpenCL C语言实现作一些研究。
关键词
加速
人工神经网络
RPROP
OPENCL
CPU
Keywords
accelerating
artificial neural network
RPROP
OpenCL
GPU
分类号
TP183 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
支持OpenCL的GPU加速人工神经网络训练
祝伟华
付先珺
《计算机系统应用》
2011
2
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部