期刊文献+

一种新的最小二乘支持向量机算法 被引量:7

Modified Least Squares Support Vector Machines
下载PDF
导出
摘要 基于核方法的学习算法在机器学习领域占有很重要的地位(如支持向量机Support Vector Machines,简称SVM)。但该方法在处理回归问题时的计算复杂度为数据量的立方级。最小二乘支持向量机(Least Squares Support Vector Machines,简称LS-SVM)在计算复杂性方面对传统的支持向量机作了很大改进,但是它的计算量也达到样本点数目的平方级。在处理海量数据回归问题时,求解LS-SVM占用大量的CPU和内存资源。提出了一种带非齐次多项式核的最小二乘支持向量机算法,由于特征向量中含有常数分量,所以去掉了模型中的偏差因子,简化了LS-SVM的回归模型。新方法特别适合于海量数据回归问题。实验显示新方法的求解速度比传统LS-SVM快很多,同时新方法的准确性却丝毫不亚于LS-SVM。 A problem for many kernel-based methods is that the amount of computation required to find the solution scales as O(N^3),where N is the number of training examples.As an interesting version of SVM,LS-SVM reduces the complexity of standard SVM to O(N^2).Both SVM and LS-SVM are not suitable for the large scale regression problem.This paper proposes a modified LS-SVM with inhomogeneous polynomial kernel.Besides,the new LS-SVM omits the bias term.This newly proposed LS-SVM has a simpler model than the standard one.Simulations performed on artificial data sets show the modified LS-SVM speeds the training process of standard LS-SVM greatly without significant loss of accuracy.
出处 《计算机工程与应用》 CSCD 北大核心 2007年第11期33-34,103,共3页 Computer Engineering and Applications
基金 国家自然科学基金(the National Natural Science Foundation of China under Grant No.60472042) 中国地质大学(武汉)优秀青年教师基金(No.CUGQNL0520)。
关键词 支持向量机 多项式核 偏差因子 Support Vector Machines (SVM) polynomial kernel bias term
  • 相关文献

参考文献5

  • 1Vapnik V N.The nature of statistical learning[M].2nd ed.NY:Springer,2000.
  • 2Johan A K S,Tony V G,Jos D B.Least squares support vector machines[M].KU Leuven,Belgium.
  • 3Golub V H,Loan C F V.Matrix computations[M].Balgtimore:John Hopkins University Press.
  • 4LS-SVMlab Toolbox.http://www.esat.kuleuven.ac.be/sista/lssvmlab.
  • 5Suykens J A K,Brabanter J D,Lukas L,et al.Weighted least squares support vector machines:robustness and sparse approximation[J].Neurocomputing,2002,48:85-105.

同被引文献56

引证文献7

二级引证文献22

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部