期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
3
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于Gauss Newton-NL2SOL法的前馈神经网络及应用
1
作者
徐晋
《重庆大学学报(自然科学版)》
EI
CAS
CSCD
北大核心
2004年第4期118-121,共4页
目前基于高斯牛顿法及其衍生算法的前馈神经网络虽然可以达到局部二阶收敛速度,但只对小残量或零残量问题有效,对大残量问题则收敛很慢甚至不收敛。为了实时解决神经网络学习过程中可能遇到的小残量问题和大残量问题,引入NL2SOL优化算法...
目前基于高斯牛顿法及其衍生算法的前馈神经网络虽然可以达到局部二阶收敛速度,但只对小残量或零残量问题有效,对大残量问题则收敛很慢甚至不收敛。为了实时解决神经网络学习过程中可能遇到的小残量问题和大残量问题,引入NL2SOL优化算法,并与GaussNewton法相结合,构建基于GaussNewton NL2SOL法的前馈神经网络。仿真实例表明,该神经网络较好地解决了残量问题,具有良好的收敛性和稳定性。
展开更多
关键词
前馈神经网络
GaussNewton
法
nl2sol法
残量问题
收敛性
稳定性
下载PDF
职称材料
前馈神经网络权值学习综合算法
被引量:
1
2
作者
李娟
徐晋
付灵丽
《兰州理工大学学报》
CAS
北大核心
2004年第4期84-87,共4页
目前基于高斯牛顿法及其衍生算法的前馈神经网络虽然可以达到局部二阶收敛速度,但只对小残量或零残量问题有效,对大残量问题则收敛很慢甚至不收敛.为了实时解决神经网络学习过程中可能遇到的小残量问题和大残量问题,引入NL2SOL优化算法...
目前基于高斯牛顿法及其衍生算法的前馈神经网络虽然可以达到局部二阶收敛速度,但只对小残量或零残量问题有效,对大残量问题则收敛很慢甚至不收敛.为了实时解决神经网络学习过程中可能遇到的小残量问题和大残量问题,引入NL2SOL优化算法与GaussNewton法相结合,并引入熵误差函数,构建基于GaussNewton NL2SOL法的前馈神经网络.仿真实例表明,该神经网络较好地解决了残量问题,具有良好的收敛性和稳定性.
展开更多
关键词
前馈神经网络
GaussNewton
法
nl2sol法
残量问题
收敛性
稳定性
下载PDF
职称材料
一种前馈神经网络综合快速学习算法
被引量:
3
3
作者
徐晋
《内蒙古工业大学学报(自然科学版)》
2003年第3期232-236,共5页
目前基于高斯牛顿法及其衍生算法的前馈神经网络虽然可以达到局部二阶收敛速度,但只对小残量或零残量问题有效,对大残量问题则收敛很慢甚至不收敛.为了实时解决神经网络学习过程中可能遇到的小残量问题和大残量问题,引入NL2SOL优化算法...
目前基于高斯牛顿法及其衍生算法的前馈神经网络虽然可以达到局部二阶收敛速度,但只对小残量或零残量问题有效,对大残量问题则收敛很慢甚至不收敛.为了实时解决神经网络学习过程中可能遇到的小残量问题和大残量问题,引入NL2SOL优化算法,并与LM(Levernberg-Marquardt)法相结合,构建基于LM-NL2SOL法的前馈神经网络学习算法.仿真实例表明,该神经网络学习算法较好地解决了残量问题,具有良好的收敛性和稳定性.
展开更多
关键词
前馈神经网络
nl2sol法
Levernberg-Marquardt
法
残量问题
收敛性
稳定性
下载PDF
职称材料
题名
基于Gauss Newton-NL2SOL法的前馈神经网络及应用
1
作者
徐晋
机构
上海交通大学管理学院
出处
《重庆大学学报(自然科学版)》
EI
CAS
CSCD
北大核心
2004年第4期118-121,共4页
基金
国家自然科学基金资助项目(70172001)
文摘
目前基于高斯牛顿法及其衍生算法的前馈神经网络虽然可以达到局部二阶收敛速度,但只对小残量或零残量问题有效,对大残量问题则收敛很慢甚至不收敛。为了实时解决神经网络学习过程中可能遇到的小残量问题和大残量问题,引入NL2SOL优化算法,并与GaussNewton法相结合,构建基于GaussNewton NL2SOL法的前馈神经网络。仿真实例表明,该神经网络较好地解决了残量问题,具有良好的收敛性和稳定性。
关键词
前馈神经网络
GaussNewton
法
nl2sol法
残量问题
收敛性
稳定性
Keywords
feed-forward neural network
gauss newton algorithm
nl
2
sol
algorithm
residual problem
convergence
stability
分类号
TP18 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
前馈神经网络权值学习综合算法
被引量:
1
2
作者
李娟
徐晋
付灵丽
机构
河北工业大学计算机科学与软件学院
上海交通大学管理学院
出处
《兰州理工大学学报》
CAS
北大核心
2004年第4期84-87,共4页
基金
国家自然科学基金(10271025)
文摘
目前基于高斯牛顿法及其衍生算法的前馈神经网络虽然可以达到局部二阶收敛速度,但只对小残量或零残量问题有效,对大残量问题则收敛很慢甚至不收敛.为了实时解决神经网络学习过程中可能遇到的小残量问题和大残量问题,引入NL2SOL优化算法与GaussNewton法相结合,并引入熵误差函数,构建基于GaussNewton NL2SOL法的前馈神经网络.仿真实例表明,该神经网络较好地解决了残量问题,具有良好的收敛性和稳定性.
关键词
前馈神经网络
GaussNewton
法
nl2sol法
残量问题
收敛性
稳定性
Keywords
feed-forward neural network
Gauss-Newton method
nl
2
sol
algorithm
residual problems
convergence
stability
分类号
TP18 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
一种前馈神经网络综合快速学习算法
被引量:
3
3
作者
徐晋
机构
上海交通大学管理学院
出处
《内蒙古工业大学学报(自然科学版)》
2003年第3期232-236,共5页
基金
国家自然科学基金资助项目(10271025)
文摘
目前基于高斯牛顿法及其衍生算法的前馈神经网络虽然可以达到局部二阶收敛速度,但只对小残量或零残量问题有效,对大残量问题则收敛很慢甚至不收敛.为了实时解决神经网络学习过程中可能遇到的小残量问题和大残量问题,引入NL2SOL优化算法,并与LM(Levernberg-Marquardt)法相结合,构建基于LM-NL2SOL法的前馈神经网络学习算法.仿真实例表明,该神经网络学习算法较好地解决了残量问题,具有良好的收敛性和稳定性.
关键词
前馈神经网络
nl2sol法
Levernberg-Marquardt
法
残量问题
收敛性
稳定性
Keywords
feed-forward neural network
Levernberg-Marquardt algorithm
nl
2
sol
algorithm
residual problem
convergence
stability
分类号
TP18 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于Gauss Newton-NL2SOL法的前馈神经网络及应用
徐晋
《重庆大学学报(自然科学版)》
EI
CAS
CSCD
北大核心
2004
0
下载PDF
职称材料
2
前馈神经网络权值学习综合算法
李娟
徐晋
付灵丽
《兰州理工大学学报》
CAS
北大核心
2004
1
下载PDF
职称材料
3
一种前馈神经网络综合快速学习算法
徐晋
《内蒙古工业大学学报(自然科学版)》
2003
3
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部