孪生支持向量回归机(Twin Support Vector Regression,TSVR or TWSVR)是一种基于统计学习理论的回归算法,它以结构风险最小化原理为理论基础,通过适当地选择函数子集及该子集中的判别函数,使学习机的实际风险达到最小,保证了在有限训练...孪生支持向量回归机(Twin Support Vector Regression,TSVR or TWSVR)是一种基于统计学习理论的回归算法,它以结构风险最小化原理为理论基础,通过适当地选择函数子集及该子集中的判别函数,使学习机的实际风险达到最小,保证了在有限训练样本上得到的小误差分类器对独立测试集的测试误差仍然较小.孪生支持向量回归机通过将线性不可分样本映射到高维特征空间,使得映射后的样本在该高维特征空间内线性可分,保证了其具有较好的泛化性能.孪生支持向量回归机的算法思想基于孪生支持向量机(Twin Support Vector Machine,TWSVM),几何意义是使所有样本点尽可能地处于两条回归超平面的上(下)不敏感边界之间,最终的回归结果由两个超平面的回归值取平均得到.孪生支持向量回归机需求解两个规模较小的二次规划问题(Quadratic Programming Problems,QPPs)便可得到两条具有较小拟合误差的回归超平面,训练时间和拟合精度都高于传统的支持向量回归机(Support Vector Regression,SVR),且其QPPs的对偶问题存在全局最优解,避免了容易陷入局部最优的问题,故孪生支持向量回归机已成为机器学习的热门领域之一.但孪生支持向量回归机作为机器学习领域的一个较新的理论,其数学模型与算法思想都尚不成熟,在泛化性能、求解速度、矩阵稀疏性、参数选取、对偶问题等方面仍存在进一步改进的空间.本文首先给出了两种孪生支持向量回归机的数学模型与几何意义,然后将孪生支持向量回归机的几个常见的改进策略归纳如下.(1)加权孪生支持向量回归机由于孪生支持向量回归机中每个训练样本受到的惩罚是相同的,但每个样本对超平面的影响不同,尤其是噪声和离群值会使算法性能降低,并且在不同位置的训练样本应给予不同的处罚更为合理,因此考虑在孪生支持向量回归机的每个QPP中引入一个加权系数,给予不同位置的训练样本不同程度的惩罚.(2)拉格朗日孪生支持向量回归机由于孪生支持向量回归机的对偶问题中半正定矩阵的逆矩阵可能不存在,若存在,则对偶问题不是严格凸函数,可能存在多个解,因此考虑使用松弛变量的2范数代替原有的1范数,使对偶问题更简单,易于求解.(3)最小二乘孪生支持向量回归机由于孪生支持向量回归机的求解需要在对偶空间进行,得到的解为近似解,考虑通过最小二乘法将原问题的不等式约束转化为等式约束,使得原问题可以在原空间内求解,在很大程度上降低计算时间,提高泛化性能,且不损失精度.(4)v-孪生支持向量回归机通过引入一组参数v1与v2自动调节ε1与ε2的值以控制训练样本的特定部分对两条回归超平面所能造成的最大误差,从而自适应给定数据的结构,提高孪生支持向量回归机的拟合精度.(5)ε-孪生支持向量回归机在孪生支持向量回归机的原问题中引入正则化项以达到结构风险最小化的目的,使对偶问题转化为稳定的正定二次规划问题,并通过SOR求解对偶问题,加快训练速度.(6)孪生参数不敏感支持向量回归机克服参数的选取对孪生支持向量回归机超平面构造的影响,使算法非常适合于存在异方差噪声数据的数据集,训练速度和泛化性能也有提升.本文同时对以上算法的数学模型、改进算法及应用进行了系统地分析与总结,给出了以上算法在9个UCI基准数据集上的回归性能与计算时间,并在模型结构层面逐一分析每个算法的表现与耗时的根本原因.对于其他不便于归类的孪生支持向量回归机改进算法及应用,本文也对其作逐一总结.整体来看,最小二乘孪生支持向量回归机在性能和计算时间方面表现最佳,拉格朗日孪生支持向量回归机、v-孪生支持向量回归机的性能并列次优且计算时间接近,加权孪生支持向量回归机、ε-孪生支持向量回归机和孪生参数不敏感支持向量回归机的性能不理想,但计算时间接近.本文旨在使读者对孪生支持向量回归机的不同改进算法之间的异同点与优缺点产生更深刻的理解与认识,从而将更多优秀的改进策略应用于孪生支持向量回归机,最终为进一步提高孪生支持向量回归机的性能以及扩展孪生支持向量回归机的应用范围提供较为清晰的思路.展开更多
针对目前光滑孪生支持向量回归机(smooth twin support vector regression,STSVR)中采用的Sigmoid光滑函数逼近精度不高,从而导致算法泛化能力不够理想的问题,引入一种具有更强逼近能力的光滑(chen-harker-kanzow-smale,CHKS)函数,采用C...针对目前光滑孪生支持向量回归机(smooth twin support vector regression,STSVR)中采用的Sigmoid光滑函数逼近精度不高,从而导致算法泛化能力不够理想的问题,引入一种具有更强逼近能力的光滑(chen-harker-kanzow-smale,CHKS)函数,采用CHKS函数逼近孪生支持向量回归机的不可微项,并用Newton-Armijo算法求解相应的模型,提出了光滑CHKS孪生支持向量回归机(smooth CHKS twin support vector regression,SCTSVR).不仅从理论上证明了SCTSVR具有严格凸,能满足任意阶光滑和全局收敛的性能,而且在人工数据集和UCI数据集上的实验表明了SCTSVR比STSVR具有更好的回归性能.展开更多
针对光滑孪生支持向量回归机(Smooth Twin Support Vector Regression,STSVR)中Sigmoid函数逼近精度不高的问题,将正号函数展开为无穷多项式级数,由此得到一族光滑函数.采用该多项式光滑函数逼近孪生支持向量回归机的不可微项,并用Newto...针对光滑孪生支持向量回归机(Smooth Twin Support Vector Regression,STSVR)中Sigmoid函数逼近精度不高的问题,将正号函数展开为无穷多项式级数,由此得到一族光滑函数.采用该多项式光滑函数逼近孪生支持向量回归机的不可微项,并用Newton-Armijo算法求解相应的模型,提出了多项式光滑孪生支持向量回归机(Polynomial Smooth Twin Support Vector Regression,PSTSVR).不仅从理论上证明了PSTSVR的收敛性和满足任意阶光滑的性能,而且在人工数据集和UCI数据集上的实验表明了PSTSVR比STSVR具有更好的回归性能.展开更多
孪生支持向量回归机(Twin Support Vector Regression,TSVR)的数学模型是求解一对约束优化问题,如何将约束优化问题转化为无约束优化问题进行求解是一个难题.在TSVR约束优化模型的基础上,依据最优化理论提出TSVR的无约束优化问题.然而,...孪生支持向量回归机(Twin Support Vector Regression,TSVR)的数学模型是求解一对约束优化问题,如何将约束优化问题转化为无约束优化问题进行求解是一个难题.在TSVR约束优化模型的基础上,依据最优化理论提出TSVR的无约束优化问题.然而,无约束优化问题的目标函数有可能不可微,为解决这个问题,引入极大熵函数,确保优化问题都是可微的.标准的极大熵函数法有可能发生数值溢出,所以对极大熵函数法进行了改进,提出自适应调节极大熵函数法来逼近TSVR的不可微项,并提出基于自适应调节极大熵函数法的TSVR学习算法.实验结果表明,和其他回归方法相比,所提算法不仅能够提高回归精度,而且效率得到了较大的提高.展开更多
孪生近端最小二乘支持向量回归机(twin proximal least squares support vector regression,TPLSSVR)是在PLSSVR模型的理论基础上结合TSVR模型的双超平面理念而设计的一种新的回归模型.本文利用TPLSSVR模型框架构建了基于高斯噪声的孪...孪生近端最小二乘支持向量回归机(twin proximal least squares support vector regression,TPLSSVR)是在PLSSVR模型的理论基础上结合TSVR模型的双超平面理念而设计的一种新的回归模型.本文利用TPLSSVR模型框架构建了基于高斯噪声的孪生近端最小二乘支持向量回归模型.该模型利用最小二乘方法,分别加入正则化项b_(1)^(2)、b_(2)_(2),将一个不等式约束问题转化为两个更简单的等式约束问题,提高了模型的泛化能力,有效提升了预测精度.为解决模型的参数选择问题,选用收敛速度快、鲁棒性好的粒子群优化算法对模型参数进行优化选择.将新构建的模型应用于人工数据集和风速数据集,实验结果显示该模型有较好的预测效果.展开更多
文摘孪生支持向量回归机(Twin Support Vector Regression,TSVR or TWSVR)是一种基于统计学习理论的回归算法,它以结构风险最小化原理为理论基础,通过适当地选择函数子集及该子集中的判别函数,使学习机的实际风险达到最小,保证了在有限训练样本上得到的小误差分类器对独立测试集的测试误差仍然较小.孪生支持向量回归机通过将线性不可分样本映射到高维特征空间,使得映射后的样本在该高维特征空间内线性可分,保证了其具有较好的泛化性能.孪生支持向量回归机的算法思想基于孪生支持向量机(Twin Support Vector Machine,TWSVM),几何意义是使所有样本点尽可能地处于两条回归超平面的上(下)不敏感边界之间,最终的回归结果由两个超平面的回归值取平均得到.孪生支持向量回归机需求解两个规模较小的二次规划问题(Quadratic Programming Problems,QPPs)便可得到两条具有较小拟合误差的回归超平面,训练时间和拟合精度都高于传统的支持向量回归机(Support Vector Regression,SVR),且其QPPs的对偶问题存在全局最优解,避免了容易陷入局部最优的问题,故孪生支持向量回归机已成为机器学习的热门领域之一.但孪生支持向量回归机作为机器学习领域的一个较新的理论,其数学模型与算法思想都尚不成熟,在泛化性能、求解速度、矩阵稀疏性、参数选取、对偶问题等方面仍存在进一步改进的空间.本文首先给出了两种孪生支持向量回归机的数学模型与几何意义,然后将孪生支持向量回归机的几个常见的改进策略归纳如下.(1)加权孪生支持向量回归机由于孪生支持向量回归机中每个训练样本受到的惩罚是相同的,但每个样本对超平面的影响不同,尤其是噪声和离群值会使算法性能降低,并且在不同位置的训练样本应给予不同的处罚更为合理,因此考虑在孪生支持向量回归机的每个QPP中引入一个加权系数,给予不同位置的训练样本不同程度的惩罚.(2)拉格朗日孪生支持向量回归机由于孪生支持向量回归机的对偶问题中半正定矩阵的逆矩阵可能不存在,若存在,则对偶问题不是严格凸函数,可能存在多个解,因此考虑使用松弛变量的2范数代替原有的1范数,使对偶问题更简单,易于求解.(3)最小二乘孪生支持向量回归机由于孪生支持向量回归机的求解需要在对偶空间进行,得到的解为近似解,考虑通过最小二乘法将原问题的不等式约束转化为等式约束,使得原问题可以在原空间内求解,在很大程度上降低计算时间,提高泛化性能,且不损失精度.(4)v-孪生支持向量回归机通过引入一组参数v1与v2自动调节ε1与ε2的值以控制训练样本的特定部分对两条回归超平面所能造成的最大误差,从而自适应给定数据的结构,提高孪生支持向量回归机的拟合精度.(5)ε-孪生支持向量回归机在孪生支持向量回归机的原问题中引入正则化项以达到结构风险最小化的目的,使对偶问题转化为稳定的正定二次规划问题,并通过SOR求解对偶问题,加快训练速度.(6)孪生参数不敏感支持向量回归机克服参数的选取对孪生支持向量回归机超平面构造的影响,使算法非常适合于存在异方差噪声数据的数据集,训练速度和泛化性能也有提升.本文同时对以上算法的数学模型、改进算法及应用进行了系统地分析与总结,给出了以上算法在9个UCI基准数据集上的回归性能与计算时间,并在模型结构层面逐一分析每个算法的表现与耗时的根本原因.对于其他不便于归类的孪生支持向量回归机改进算法及应用,本文也对其作逐一总结.整体来看,最小二乘孪生支持向量回归机在性能和计算时间方面表现最佳,拉格朗日孪生支持向量回归机、v-孪生支持向量回归机的性能并列次优且计算时间接近,加权孪生支持向量回归机、ε-孪生支持向量回归机和孪生参数不敏感支持向量回归机的性能不理想,但计算时间接近.本文旨在使读者对孪生支持向量回归机的不同改进算法之间的异同点与优缺点产生更深刻的理解与认识,从而将更多优秀的改进策略应用于孪生支持向量回归机,最终为进一步提高孪生支持向量回归机的性能以及扩展孪生支持向量回归机的应用范围提供较为清晰的思路.
文摘针对目前光滑孪生支持向量回归机(smooth twin support vector regression,STSVR)中采用的Sigmoid光滑函数逼近精度不高,从而导致算法泛化能力不够理想的问题,引入一种具有更强逼近能力的光滑(chen-harker-kanzow-smale,CHKS)函数,采用CHKS函数逼近孪生支持向量回归机的不可微项,并用Newton-Armijo算法求解相应的模型,提出了光滑CHKS孪生支持向量回归机(smooth CHKS twin support vector regression,SCTSVR).不仅从理论上证明了SCTSVR具有严格凸,能满足任意阶光滑和全局收敛的性能,而且在人工数据集和UCI数据集上的实验表明了SCTSVR比STSVR具有更好的回归性能.
文摘针对光滑孪生支持向量回归机(Smooth Twin Support Vector Regression,STSVR)中Sigmoid函数逼近精度不高的问题,将正号函数展开为无穷多项式级数,由此得到一族光滑函数.采用该多项式光滑函数逼近孪生支持向量回归机的不可微项,并用Newton-Armijo算法求解相应的模型,提出了多项式光滑孪生支持向量回归机(Polynomial Smooth Twin Support Vector Regression,PSTSVR).不仅从理论上证明了PSTSVR的收敛性和满足任意阶光滑的性能,而且在人工数据集和UCI数据集上的实验表明了PSTSVR比STSVR具有更好的回归性能.
文摘孪生支持向量回归机(Twin Support Vector Regression,TSVR)的数学模型是求解一对约束优化问题,如何将约束优化问题转化为无约束优化问题进行求解是一个难题.在TSVR约束优化模型的基础上,依据最优化理论提出TSVR的无约束优化问题.然而,无约束优化问题的目标函数有可能不可微,为解决这个问题,引入极大熵函数,确保优化问题都是可微的.标准的极大熵函数法有可能发生数值溢出,所以对极大熵函数法进行了改进,提出自适应调节极大熵函数法来逼近TSVR的不可微项,并提出基于自适应调节极大熵函数法的TSVR学习算法.实验结果表明,和其他回归方法相比,所提算法不仅能够提高回归精度,而且效率得到了较大的提高.
文摘孪生近端最小二乘支持向量回归机(twin proximal least squares support vector regression,TPLSSVR)是在PLSSVR模型的理论基础上结合TSVR模型的双超平面理念而设计的一种新的回归模型.本文利用TPLSSVR模型框架构建了基于高斯噪声的孪生近端最小二乘支持向量回归模型.该模型利用最小二乘方法,分别加入正则化项b_(1)^(2)、b_(2)_(2),将一个不等式约束问题转化为两个更简单的等式约束问题,提高了模型的泛化能力,有效提升了预测精度.为解决模型的参数选择问题,选用收敛速度快、鲁棒性好的粒子群优化算法对模型参数进行优化选择.将新构建的模型应用于人工数据集和风速数据集,实验结果显示该模型有较好的预测效果.