期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
递减样本集成学习算法
1
作者 周羿 陈科 +4 位作者 朱波 刘浩 王宇凡 武继刚 孙学梅 《计算机工程与应用》 CSCD 北大核心 2016年第12期69-74,140,共7页
从多个弱分类器重构出强分类器的集成学习方法是机器学习领域的重要研究方向之一。尽管已有多种多样性基本分类器的生成方法被提出,但这些方法的鲁棒性仍有待提高。递减样本集成学习算法综合了目前最为流行的boosting与bagging算法的学... 从多个弱分类器重构出强分类器的集成学习方法是机器学习领域的重要研究方向之一。尽管已有多种多样性基本分类器的生成方法被提出,但这些方法的鲁棒性仍有待提高。递减样本集成学习算法综合了目前最为流行的boosting与bagging算法的学习思想,通过不断移除训练集中置信度较高的样本,使训练集空间依次递减,使得某些被低估的样本在后续的分类器中得到充分训练。该策略形成一系列递减的训练子集,因而也生成一系列多样性的基本分类器。类似于boosting与bagging算法,递减样本集成学习方法采用投票策略对基本分类器进行整合。通过严格的十折叠交叉检验,在8个UCI数据集与7种基本分类器上的测试表明,递减样本集成学习算法总体上要优于boosting与bagging算法。 展开更多
关键词 集成学习 基本分类器 训练子空间 递减 置信度
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部