期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
3
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
MISO多元广义多项式神经网络及其权值直接求解
被引量:
7
1
作者
肖秀春
张雨浓
姜孝华
《中山大学学报(自然科学版)》
CAS
CSCD
北大核心
2009年第4期42-46,56,共6页
基于多元函数逼近理论,构建一种M ISO(Mu ltip le-Input,S ingle-Output)多元广义多项式神经网络。依据最小二乘原理,推导出基于伪逆的最优权值一步计算公式———简称为权值直接确定法;在此基础上,提出基于指数增长和折半删减搜索策略...
基于多元函数逼近理论,构建一种M ISO(Mu ltip le-Input,S ingle-Output)多元广义多项式神经网络。依据最小二乘原理,推导出基于伪逆的最优权值一步计算公式———简称为权值直接确定法;在此基础上,提出基于指数增长和折半删减搜索策略的隐神经元数自适应增删搜索算法。该新型神经网络具有结构简单的优点,其权值直接确定法、隐神经元增删算法可以避免冗长的迭代计算、局部极小点和学习率难选取等问题,同时解决了传统BP神经网络难以确定隐神经元数这一难题。仿真实验显示其具有训练速度快、逼近精度高和良好的去噪特性等特点。
展开更多
关键词
多元广义多项式
权值直接确定
结构自适应确定
指数增长
折半删减
下载PDF
职称材料
一种基函数神经网络最优隐神经元数目快速确定算法
被引量:
4
2
作者
肖秀春
姜孝华
张雨浓
《微电子学与计算机》
CSCD
北大核心
2010年第1期57-60,共4页
以线性无关的基函数作为隐层神经元的激励函数,构建了一类基函数神经网络,且推导出该类神经网络的学习算法;在此基础上,设计了一种基于指数增长和折半删减的快速最小隐神经元数目确定算法.仿真实验表明,此算法能自适应地、快速有效地确...
以线性无关的基函数作为隐层神经元的激励函数,构建了一类基函数神经网络,且推导出该类神经网络的学习算法;在此基础上,设计了一种基于指数增长和折半删减的快速最小隐神经元数目确定算法.仿真实验表明,此算法能自适应地、快速有效地确定网络最小隐层神经元数目.
展开更多
关键词
广义多项式
神经网络
结构自适应确定
指数增长
折半删减
下载PDF
职称材料
一种确定神经网络最优结构的新算法
被引量:
2
3
作者
吕晓丽
张瑞
+1 位作者
王博
崔新月
《西安文理学院学报(自然科学版)》
2014年第4期4-8,共5页
从神经网络结构设计问题出发,提出一种确定神经网络最优隐节点个数的新方法.该算法首先按照等差数列增加隐节点,确定最优隐节点个数的范围;然后利用折半删减法确定最优隐节点个数.数值实验表明该算法在保持良好泛化能力的同时能自适应...
从神经网络结构设计问题出发,提出一种确定神经网络最优隐节点个数的新方法.该算法首先按照等差数列增加隐节点,确定最优隐节点个数的范围;然后利用折半删减法确定最优隐节点个数.数值实验表明该算法在保持良好泛化能力的同时能自适应地、快速有效地确定网络最小隐神经元数目.
展开更多
关键词
ELM算法
神经网络
等差增长
折半删减
下载PDF
职称材料
题名
MISO多元广义多项式神经网络及其权值直接求解
被引量:
7
1
作者
肖秀春
张雨浓
姜孝华
机构
中山大学信息科学与技术学院
广东海洋大学信息学院
出处
《中山大学学报(自然科学版)》
CAS
CSCD
北大核心
2009年第4期42-46,56,共6页
基金
国家自然科学基金资助项目(60643004
60775050)
+1 种基金
中山大学科研启动费
后备重点资助项目
文摘
基于多元函数逼近理论,构建一种M ISO(Mu ltip le-Input,S ingle-Output)多元广义多项式神经网络。依据最小二乘原理,推导出基于伪逆的最优权值一步计算公式———简称为权值直接确定法;在此基础上,提出基于指数增长和折半删减搜索策略的隐神经元数自适应增删搜索算法。该新型神经网络具有结构简单的优点,其权值直接确定法、隐神经元增删算法可以避免冗长的迭代计算、局部极小点和学习率难选取等问题,同时解决了传统BP神经网络难以确定隐神经元数这一难题。仿真实验显示其具有训练速度快、逼近精度高和良好的去噪特性等特点。
关键词
多元广义多项式
权值直接确定
结构自适应确定
指数增长
折半删减
Keywords
multivariate generalized polynomials
weights-direct-determination
structure-adaptive-de-termination
exponential growth
binary search
分类号
TP183 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
一种基函数神经网络最优隐神经元数目快速确定算法
被引量:
4
2
作者
肖秀春
姜孝华
张雨浓
机构
广东海洋大学信息学院
中山大学信息科学与技术学院
浙江大学CAD/CG国家重点实验室
出处
《微电子学与计算机》
CSCD
北大核心
2010年第1期57-60,共4页
基金
国家自然科学基金项目(60643004
60775050)
浙江大学CAD/CG国家重点实验室开放课题(A0908)
文摘
以线性无关的基函数作为隐层神经元的激励函数,构建了一类基函数神经网络,且推导出该类神经网络的学习算法;在此基础上,设计了一种基于指数增长和折半删减的快速最小隐神经元数目确定算法.仿真实验表明,此算法能自适应地、快速有效地确定网络最小隐层神经元数目.
关键词
广义多项式
神经网络
结构自适应确定
指数增长
折半删减
Keywords
general polynomial
neural network
structure-adaptive-determination
exponential growth
binary ,search
分类号
TP183 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
一种确定神经网络最优结构的新算法
被引量:
2
3
作者
吕晓丽
张瑞
王博
崔新月
机构
西北大学数学学院
出处
《西安文理学院学报(自然科学版)》
2014年第4期4-8,共5页
基金
陕西省自然科学基金(2014JM1016)
文摘
从神经网络结构设计问题出发,提出一种确定神经网络最优隐节点个数的新方法.该算法首先按照等差数列增加隐节点,确定最优隐节点个数的范围;然后利用折半删减法确定最优隐节点个数.数值实验表明该算法在保持良好泛化能力的同时能自适应地、快速有效地确定网络最小隐神经元数目.
关键词
ELM算法
神经网络
等差增长
折半删减
Keywords
ELM algorithm
neural network
arithmetic growth
50% deletion
分类号
O29 [理学—应用数学]
TP183 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
MISO多元广义多项式神经网络及其权值直接求解
肖秀春
张雨浓
姜孝华
《中山大学学报(自然科学版)》
CAS
CSCD
北大核心
2009
7
下载PDF
职称材料
2
一种基函数神经网络最优隐神经元数目快速确定算法
肖秀春
姜孝华
张雨浓
《微电子学与计算机》
CSCD
北大核心
2010
4
下载PDF
职称材料
3
一种确定神经网络最优结构的新算法
吕晓丽
张瑞
王博
崔新月
《西安文理学院学报(自然科学版)》
2014
2
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部