-
题名逐层可加的急速学习机
被引量:1
- 1
-
-
作者
郑雪辉
王士同
许小龙
-
机构
江南大学数字媒体学院
-
出处
《计算机工程与应用》
CSCD
北大核心
2016年第8期7-12,共6页
-
文摘
已有的急速学习机(Extreme Learning Machine)的学习精度受隐节点数目的影响很大。无论是已提出的单隐层急速学习机还是多隐层神经网络,都是先确定隐藏层数,再通过增加每一层的神经元个数来提高精度。但当训练集规模很大时,往往需要引入很多的隐节点,导致违逆矩阵计算复杂度大,从而不利于学习效率的提高。提出逐层可加的急速学习机MHL-ELM(Extreme Learning Machine with Incremental Hidden Layers),其思想是首先对当前隐藏层神经元(数目不大且不寻优,因而复杂度小)的权值进行随机赋值,用ELM思想求出逼近误差;若误差达不到要求,再增加一个隐含层。然后运用ELM的思想对当前隐含层优化。逐渐增加隐含层,直至满足误差精度为止。除此以外,MHL-ELM的算法复杂度为Σi=1MO(N_l^3)。实验使用10个UCI,keel真实数据集,通过与BP,OP-ELM等传统方法进行比较,表明MHL-ELM学习方法具有更好的泛化性,在学习精度和学习速度方面都有很大的提升。
-
关键词
急速学习机
多隐层神经网络
逐层优化
-
Keywords
Extreme Learning Machine(ELM)
multi-hidden layer neural network
layer-wise pre-training
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-