-
题名递减样本集成学习算法
- 1
-
-
作者
周羿
陈科
朱波
刘浩
王宇凡
武继刚
孙学梅
-
机构
天津工业大学计算机科学与软件学院
-
出处
《计算机工程与应用》
CSCD
北大核心
2016年第12期69-74,140,共7页
-
基金
国家自然科学基金(No.11201134)
天津市自然科学基金一般项目(No.12JCYBJC31900)
-
文摘
从多个弱分类器重构出强分类器的集成学习方法是机器学习领域的重要研究方向之一。尽管已有多种多样性基本分类器的生成方法被提出,但这些方法的鲁棒性仍有待提高。递减样本集成学习算法综合了目前最为流行的boosting与bagging算法的学习思想,通过不断移除训练集中置信度较高的样本,使训练集空间依次递减,使得某些被低估的样本在后续的分类器中得到充分训练。该策略形成一系列递减的训练子集,因而也生成一系列多样性的基本分类器。类似于boosting与bagging算法,递减样本集成学习方法采用投票策略对基本分类器进行整合。通过严格的十折叠交叉检验,在8个UCI数据集与7种基本分类器上的测试表明,递减样本集成学习算法总体上要优于boosting与bagging算法。
-
关键词
集成学习
基本分类器
训练子空间
递减
置信度
-
Keywords
ensemble learning
base classifier
training subspace
decreasing
confidence level
-
分类号
TP39
[自动化与计算机技术—计算机应用技术]
-