期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
多输出神经元模型的多层前向神经网络及其应用 被引量:2
1
作者 汪秉文 沈艳军 何统洲 《控制理论与应用》 EI CAS CSCD 北大核心 2004年第4期611-613,共3页
研究了一种新的多输出神经元模型.首先,给出这类模型的一般形式,并将该模型应用于多层前向神经网络;其次,给出了其学习算法,即递推最小二乘算法,最后通过几个模拟实验表明,采用多输出神经元模型的多层前向神经网络,具有结构简单,泛化能... 研究了一种新的多输出神经元模型.首先,给出这类模型的一般形式,并将该模型应用于多层前向神经网络;其次,给出了其学习算法,即递推最小二乘算法,最后通过几个模拟实验表明,采用多输出神经元模型的多层前向神经网络,具有结构简单,泛化能力强,收敛速度快,收敛精度高等特点,其性能远远优于激活函数可调模型的多层前向神经网络. 展开更多
关键词 神经网络 神经元模型 递推最小二乘算法 多输出神经元模型
下载PDF
多输出神经元模型的MFNN带正则化因子RLS算法 被引量:1
2
作者 沈艳军 汪秉文 张林国 《计算机应用与软件》 CSCD 北大核心 2005年第11期102-104,共3页
在神经网络的学习中,将递推最小二乘算法(RLS)与正则化因子相结合,一方面,可以提高网络的泛化能力,另一方面,对学习样本的噪声具有鲁棒性。但是,当网络规模较大时,该算法每迭代一步计算复杂度和存储量要求很大。本文将带正则化因子的RL... 在神经网络的学习中,将递推最小二乘算法(RLS)与正则化因子相结合,一方面,可以提高网络的泛化能力,另一方面,对学习样本的噪声具有鲁棒性。但是,当网络规模较大时,该算法每迭代一步计算复杂度和存储量要求很大。本文将带正则化因子的RLS算法应用于多输出神经元模型的多层前向神经网络,通过仿真实验,结果表明,本方法可以大大简化网络结构,减小每迭代一步计算的复杂度和存储量。 展开更多
关键词 神经网络 多输出神经元模型 最小二乘算法 正则化因子 泛化能力
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部