尽管Spike and Slab方法广泛应用于贝叶斯变量选择,但其惩罚似然估计的潜力在很大程度上被忽视了。通过在贝叶斯模态中引入惩罚化似然观点,本文提出了新的Spike and Slab Lasso逻辑回归模型,将两个拉普拉斯密度的混合先验置于单个坐标上...尽管Spike and Slab方法广泛应用于贝叶斯变量选择,但其惩罚似然估计的潜力在很大程度上被忽视了。通过在贝叶斯模态中引入惩罚化似然观点,本文提出了新的Spike and Slab Lasso逻辑回归模型,将两个拉普拉斯密度的混合先验置于单个坐标上,可以自适应地收缩系数,即弱收缩重要预测量,强收缩不相关预测量,从而可以得到准确的估计和预测。同时,我们使用了预测–校正算法来求解Spike and Slab Lasso逻辑回归模型,并将该算法扩展到不可分离惩罚的情况。该算法利用凸优化的预测校正算法,沿着整个正则化路径有效的计算解,方便了模型选择,避免了正则化参数值不同时的独立优化。最后,模拟学习和实证结果表明本文所提模型比Lasso逻辑回归模型具有更优的性能。展开更多
针对传统的ε-不敏感支持向量回归机(ε-insensitive support vector regression,ε-SVR)未充分考虑局部支持向量对回归预测结果的影响,不利于提高回归预测精度的问题,提出了一种ε-SVR预测误差校正方法。该方法以期望预测值与ε-SVR回...针对传统的ε-不敏感支持向量回归机(ε-insensitive support vector regression,ε-SVR)未充分考虑局部支持向量对回归预测结果的影响,不利于提高回归预测精度的问题,提出了一种ε-SVR预测误差校正方法。该方法以期望预测值与ε-SVR回归预测值及局部支持向量间的欧氏距离和最小为目标函数,以ε不敏感损失带(ε-tube)宽度为约束条件,通过利用高维特征空间中ε-tube边界上和边界外的局部支持向量对ε-SVR的回归预测值进行误差校正。利用人工产生的不同分布数据集和UCI数据集进行的仿真结果表明,与传统的ε-SVR相比,该文方法具有更高的预测精度和更强的泛化能力。展开更多
文摘尽管Spike and Slab方法广泛应用于贝叶斯变量选择,但其惩罚似然估计的潜力在很大程度上被忽视了。通过在贝叶斯模态中引入惩罚化似然观点,本文提出了新的Spike and Slab Lasso逻辑回归模型,将两个拉普拉斯密度的混合先验置于单个坐标上,可以自适应地收缩系数,即弱收缩重要预测量,强收缩不相关预测量,从而可以得到准确的估计和预测。同时,我们使用了预测–校正算法来求解Spike and Slab Lasso逻辑回归模型,并将该算法扩展到不可分离惩罚的情况。该算法利用凸优化的预测校正算法,沿着整个正则化路径有效的计算解,方便了模型选择,避免了正则化参数值不同时的独立优化。最后,模拟学习和实证结果表明本文所提模型比Lasso逻辑回归模型具有更优的性能。
文摘针对传统的ε-不敏感支持向量回归机(ε-insensitive support vector regression,ε-SVR)未充分考虑局部支持向量对回归预测结果的影响,不利于提高回归预测精度的问题,提出了一种ε-SVR预测误差校正方法。该方法以期望预测值与ε-SVR回归预测值及局部支持向量间的欧氏距离和最小为目标函数,以ε不敏感损失带(ε-tube)宽度为约束条件,通过利用高维特征空间中ε-tube边界上和边界外的局部支持向量对ε-SVR的回归预测值进行误差校正。利用人工产生的不同分布数据集和UCI数据集进行的仿真结果表明,与传统的ε-SVR相比,该文方法具有更高的预测精度和更强的泛化能力。