期刊文献+

一种面向核支持向量机的boosting特征选择方法 被引量:1

A Boosting Feature Selection Method for Core Vector Machine
原文传递
导出
摘要 特征选择在模式分类中扮演了一个重要的角色。它的目标是尽可能多地将不相关特征排除在外,同时,得到区分度大的特征子集。那些信息量小的特征的存在,不仅使得学习算法表现不佳,而且会掩盖数据背后重要的本质信息。随着新兴技术的发展,在很多领域数据集变得越来越大,很多不相关特征通常会出现在这样的数据集中,使得传统的学习算法遇到了巨大的挑战,尤其在效率和推广性方面。于是,一种可以从数据集中消除冗余和非相关信息的算法变得十分必要。本文提出一种boosting策略的特征选择方法,利用基于核空间的距离评价函数,采用前向分步搜索方法,为核向量机(CVM)分类器选择特征子集。实验结果显示,这种方法和非boosting策略,以及其他评价方法相比,能给分类器带来更优的特征。 特征选择在模式分类中扮演了一个重要的角色。它的目标是尽可能多地将不相关特征排除在外,同时,得到区分度大的特征子集。那些信息量小的特征的存在,不仅使得学习算法表现不佳,而且会掩盖数据背后重要的本质信息。随着新兴技术的发展,在很多领域数据集变得越来越大,很多不相关特征通常会出现在这样的数据集中,使得传统的学习算法遇到了巨大的挑战,尤其在效率和推广性方面。于是,一种可以从数据集中消除冗余和非相关信息的算法变得十分必要。本文提出一种boosting策略的特征选择方法,利用基于核空间的距离评价函数,采用前向分步搜索方法,为核向量机(CVM)分类器选择特征子集。实验结果显示,这种方法和非boosting策略,以及其他评价方法相比,能给分类器带来更优的特征。
作者 樊龙夫
出处 《电子技术(上海)》 2010年第10期17-20,3,共5页 Electronic Technology
关键词 特征选择 BOOSTING 核空间 核向量机 feature selection boosting kernel space CVM
  • 相关文献

参考文献9

  • 1Vasconcelos M.Natural image statistics and low-complexity feature selection. IEEE Transactions on Pattern Analysis and Machine Intelligence . 2009
  • 2Huawen Liu,Lei Liu,Huijie Zhang.Boosting feature selection using information metric for classification. Neurocomputing . 2009
  • 3Liu H.Feature Selection with dynamic mutual information. Pattern Recognition . 2009
  • 4Y.Sun.Iterative RELIEF for feature weighting. Proceedings of International Conference on Machine Learning . 2006
  • 5Tsang I W.Core vector machines:fast SVM training on very large data sets. Journal of Machine Learning Research . 2005
  • 6Yu-Ting Chen,Chu-Song Chen.Fast human detection using a novel boosted cascading structure with meta stages. IEEE Transactions on Image Processing . 2008
  • 7Zheng Zhao.Spectral feature selection for supervised and unsupervised learning. Proceeding of the24th International Conference on Machine Learning .
  • 8Yvan Saeys,Inaki Inza,Pedro Larranaga.A review of feature selection techniques in bioinformatics. Bioinformatics . 2007
  • 9Liu Huan,Yu Lei.Toward Integrating Feature Selection Algorithms for Classification and Clustering. IEEE Transactions on Knowledge and Data Engineering . 2005

同被引文献17

  • 1Daumé Ⅲ H,Marcu D.Domain adaptation for statistical classifiers[J].Journal of Artificial Intelligence Research,2006,26(1):101-126.
  • 2Blitzer J,McDonald R,Percira F.Domain adaptation with structural correspondence learning[C]//Proc of the 2006 Conference on Empirical Methods in Natural Language Processing,2006:120 128.
  • 3Daumé Ⅲ H.Frustratingly easy domain adaptation[C]//Proc of the 45th Annual Meetingassociation of Computation al Linguistics,2007:1.
  • 4Jiang Jin,Zhai Cheng-xiang.A two-stage approach to domain adaptation for statistical classifiers[C]//Proc of CIKM' 07,2007:401-410.
  • 5Blitzer J,Dredze M,Pereira F,et al.Biographies,bollywood,boom-boxes and blenders:Domain adaptation for sentiment classification[C]// Proc of ACL' 07,2007:440-447.
  • 6Satpal S,Sarawagi S.Domain adaptation of conditional probability models via feature subsetting[C]// Proc of PKDD' 07,2007:224-235.
  • 7Jiang Jin,Zhai Cheng-xiang.Instance weighting for domain adaptation in NLP[C]// Proc of ACL'07,2007:264-271.
  • 8Tsang I W,Kwok J T,Cheung P,et al.Core vector machines:Fast SVM training on very large data sets[J].Journal of Machine Learning Research,2005,6(4):363-392.
  • 9Tsang I,Kwork J,Zurada J.Generlized core vector machines[J].IEEE Transactions on Neural Networks,2006,17 (5):1126-1139.
  • 10Fan Long-feng.A boosting feature selection method for core vector machine[J].Electronic Technology,2010,37 (10):17-21.

引证文献1

二级引证文献1

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部