期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
切比雪夫正交基神经网络的权值直接确定法
被引量:
15
1
作者
张雨浓
李巍
+1 位作者
蔡炳煌
李克讷
《计算机仿真》
CSCD
北大核心
2009年第1期157-161,共5页
经典的BP神经网络学习算法是基于误差回传的思想。而对于特定的网络模型,采用伪逆思想可以直接确定权值进而避免以往的反复迭代修正的过程。根据多项式插值和逼近理论构造一个切比雪夫正交基神经网络,其模型采用三层结构并以一组切比雪...
经典的BP神经网络学习算法是基于误差回传的思想。而对于特定的网络模型,采用伪逆思想可以直接确定权值进而避免以往的反复迭代修正的过程。根据多项式插值和逼近理论构造一个切比雪夫正交基神经网络,其模型采用三层结构并以一组切比雪夫正交多项式函数作为隐层神经元的激励函数。依据误差回传(BP)思想可以推导出该网络模型的权值修正迭代公式,利用该公式迭代训练可得到网络的最优权值。区别于这种经典的做法,针对切比雪夫正交基神经网络模型,提出了一种基于伪逆的权值直接确定法,从而避免了传统方法通过反复迭代才能得到网络权值的冗长训练过程。仿真结果表明该方法具有更快的计算速度和至少相同的工作精度,从而验证了其优越性。
展开更多
关键词
切比雪夫正交多项式
人工神经网络
激励函数
权值
修正公式
权值一步确定
伪逆
下载PDF
职称材料
题名
切比雪夫正交基神经网络的权值直接确定法
被引量:
15
1
作者
张雨浓
李巍
蔡炳煌
李克讷
机构
中山大学电子与通信工程系
出处
《计算机仿真》
CSCD
北大核心
2009年第1期157-161,共5页
基金
中国国家自然科学基金(60643004)
中山大学科研启动费和后备重点课题
文摘
经典的BP神经网络学习算法是基于误差回传的思想。而对于特定的网络模型,采用伪逆思想可以直接确定权值进而避免以往的反复迭代修正的过程。根据多项式插值和逼近理论构造一个切比雪夫正交基神经网络,其模型采用三层结构并以一组切比雪夫正交多项式函数作为隐层神经元的激励函数。依据误差回传(BP)思想可以推导出该网络模型的权值修正迭代公式,利用该公式迭代训练可得到网络的最优权值。区别于这种经典的做法,针对切比雪夫正交基神经网络模型,提出了一种基于伪逆的权值直接确定法,从而避免了传统方法通过反复迭代才能得到网络权值的冗长训练过程。仿真结果表明该方法具有更快的计算速度和至少相同的工作精度,从而验证了其优越性。
关键词
切比雪夫正交多项式
人工神经网络
激励函数
权值
修正公式
权值一步确定
伪逆
Keywords
Chebyshev orthogonal polynomials
Artifieial neural networks
Activation functions
Weight - updatingformula
One - step weight - determination
Pseudo - inverse
分类号
TP183 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
切比雪夫正交基神经网络的权值直接确定法
张雨浓
李巍
蔡炳煌
李克讷
《计算机仿真》
CSCD
北大核心
2009
15
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部