期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
MISO多元广义多项式神经网络及其权值直接求解 被引量:7
1
作者 肖秀春 张雨浓 姜孝华 《中山大学学报(自然科学版)》 CAS CSCD 北大核心 2009年第4期42-46,56,共6页
基于多元函数逼近理论,构建一种M ISO(Mu ltip le-Input,S ingle-Output)多元广义多项式神经网络。依据最小二乘原理,推导出基于伪逆的最优权值一步计算公式———简称为权值直接确定法;在此基础上,提出基于指数增长和折半删减搜索策略... 基于多元函数逼近理论,构建一种M ISO(Mu ltip le-Input,S ingle-Output)多元广义多项式神经网络。依据最小二乘原理,推导出基于伪逆的最优权值一步计算公式———简称为权值直接确定法;在此基础上,提出基于指数增长和折半删减搜索策略的隐神经元数自适应增删搜索算法。该新型神经网络具有结构简单的优点,其权值直接确定法、隐神经元增删算法可以避免冗长的迭代计算、局部极小点和学习率难选取等问题,同时解决了传统BP神经网络难以确定隐神经元数这一难题。仿真实验显示其具有训练速度快、逼近精度高和良好的去噪特性等特点。 展开更多
关键词 多元广义多项式 权值直接确定 结构自适应确定 指数增长 折半删减
下载PDF
一种基函数神经网络最优隐神经元数目快速确定算法 被引量:4
2
作者 肖秀春 姜孝华 张雨浓 《微电子学与计算机》 CSCD 北大核心 2010年第1期57-60,共4页
以线性无关的基函数作为隐层神经元的激励函数,构建了一类基函数神经网络,且推导出该类神经网络的学习算法;在此基础上,设计了一种基于指数增长和折半删减的快速最小隐神经元数目确定算法.仿真实验表明,此算法能自适应地、快速有效地确... 以线性无关的基函数作为隐层神经元的激励函数,构建了一类基函数神经网络,且推导出该类神经网络的学习算法;在此基础上,设计了一种基于指数增长和折半删减的快速最小隐神经元数目确定算法.仿真实验表明,此算法能自适应地、快速有效地确定网络最小隐层神经元数目. 展开更多
关键词 广义多项式 神经网络 结构自适应确定 指数增长 折半删减
下载PDF
一种确定神经网络最优结构的新算法 被引量:2
3
作者 吕晓丽 张瑞 +1 位作者 王博 崔新月 《西安文理学院学报(自然科学版)》 2014年第4期4-8,共5页
从神经网络结构设计问题出发,提出一种确定神经网络最优隐节点个数的新方法.该算法首先按照等差数列增加隐节点,确定最优隐节点个数的范围;然后利用折半删减法确定最优隐节点个数.数值实验表明该算法在保持良好泛化能力的同时能自适应... 从神经网络结构设计问题出发,提出一种确定神经网络最优隐节点个数的新方法.该算法首先按照等差数列增加隐节点,确定最优隐节点个数的范围;然后利用折半删减法确定最优隐节点个数.数值实验表明该算法在保持良好泛化能力的同时能自适应地、快速有效地确定网络最小隐神经元数目. 展开更多
关键词 ELM算法 神经网络 等差增长 折半删减
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部