期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
基于k-means聚类的神经网络分类器集成方法研究 被引量:7
1
作者 李凯 常圣领 《计算机工程与应用》 CSCD 北大核心 2009年第22期120-122,149,共4页
针对差异性是集成学习的必要条件,研究了基于k-means聚类技术提高神经网络分类器集成差异性的方法。通过训练集并使用神经网络分类器学习算法训练许多分类器模型,在验证集中利用每个分类器的分类结果作为聚类的数据对象;然后应用k-mean... 针对差异性是集成学习的必要条件,研究了基于k-means聚类技术提高神经网络分类器集成差异性的方法。通过训练集并使用神经网络分类器学习算法训练许多分类器模型,在验证集中利用每个分类器的分类结果作为聚类的数据对象;然后应用k-means聚类方法对这些数据聚类,在聚类结果的每个簇中选择一个分类器代表模型,以此构成集成学习的成员;最后应用投票方法实验研究了这种提高集成学习差异性方法的性能,并与常用的集成学习方法bagging、adaboost进行了比较。 展开更多
关键词 差异性 集成学习 分类器 聚类
下载PDF
基于聚类技术的集成学习方法研究 被引量:2
2
作者 李凯 常圣领 高悦 《河北大学学报(自然科学版)》 CAS 北大核心 2009年第2期209-213,共5页
研究了基于聚类技术提高分类器差异性的方法.通过Bootstrap技术与分类器学习算法训练分类器模型,利用分类器在验证集上的分类结果作为聚类的数据对象;然后应用聚类算法对这些数据聚类,并在每个簇中选择分类器代表模型,以此构成集成学习... 研究了基于聚类技术提高分类器差异性的方法.通过Bootstrap技术与分类器学习算法训练分类器模型,利用分类器在验证集上的分类结果作为聚类的数据对象;然后应用聚类算法对这些数据聚类,并在每个簇中选择分类器代表模型,以此构成集成学习的成员;最后应用融合方法实验研究了基于聚类技术提高差异性的集成学习性能,并与集成学习方法bagging,adaboost进行了实验比较. 展开更多
关键词 集成学习 差异性 聚类 分类器
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部