期刊文献+
共找到19篇文章
< 1 >
每页显示 20 50 100
基于最小距离法的稳健群组变量选择
1
作者 李冬梅 王明秋 王秀丽 《大连理工大学学报》 CAS CSCD 北大核心 2024年第1期104-110,共7页
在研究存在异常值的logistic回归模型时,发现如果使用极大似然估计(MLE)方法进行参数估计,那么异常值引起的偏差不是造成参数估计过大而是导致参数向量内爆即参数向量收缩为零向量,此时如果进行群组变量选择很可能会忽略一些重要变量.... 在研究存在异常值的logistic回归模型时,发现如果使用极大似然估计(MLE)方法进行参数估计,那么异常值引起的偏差不是造成参数估计过大而是导致参数向量内爆即参数向量收缩为零向量,此时如果进行群组变量选择很可能会忽略一些重要变量.因此针对具有组结构的logistic回归模型,为处理解释变量存在异常值时的群组变量选择问题,将基于最小距离法的稳健估计(L_(2)E)方法与已有的3种群组变量选择方法和3种双层变量选择方法结合,在此基础上利用Majorization-Minimization(MM)算法对目标函数进行求解.通过数值模拟比较了基于L_(2)E方法和MLE方法在模型具有组稀疏和双层稀疏的情况下,6种变量选择方法在不同维数下的有限样本表现,结果不仅验证了L_(2)E方法在存在异常值的logistic回归模型参数估计中的稳健性,而且指出了在这6种变量选择方法中使用Group Bridge方法进行变量选择的准确度更高. 展开更多
关键词 LOGISTIC回归模型 变量选择 稳健估计 MM算法
下载PDF
基于差分隐私的分布式组变量选择
2
作者 李子涵 张海 《陕西师范大学学报(自然科学版)》 CAS CSCD 北大核心 2024年第2期102-110,共9页
针对组结构数据的隐私保护问题,通过随机响应机制,对原始数据进行扰动,开展满足差分隐私的分布式组变量选择研究。首先基于交替方向乘子法,提出了分布式Logistic组变量选择算法。进一步为了防止计算机信息交互过程中可能产生的隐私泄露... 针对组结构数据的隐私保护问题,通过随机响应机制,对原始数据进行扰动,开展满足差分隐私的分布式组变量选择研究。首先基于交替方向乘子法,提出了分布式Logistic组变量选择算法。进一步为了防止计算机信息交互过程中可能产生的隐私泄露,提出了分布式Logistic随机响应组变量选择算法,并证明算法满足差分隐私。实验表明,所提算法可有效处理组结构分类数据并保护其隐私。 展开更多
关键词 变量选择 差分隐私 随机响应机制 LOGISTIC回归 分布式算法
下载PDF
几类群组变量选择方法及其块坐标下降算法 被引量:1
3
作者 李春红 钟小敏 宗瑞雪 《应用数学进展》 2019年第8期1478-1486,共9页
在复杂数据中变量往往成组出现,考虑了Lasso、SCAD、Bridge及MCP四种不同模型选择的惩罚项,研究了它们在群组变量中的方法及其块坐标下降算法,在Logistic模型的条件下进行模拟,结果表明Composite MCP组惩罚方法在预测能力和变量选择上... 在复杂数据中变量往往成组出现,考虑了Lasso、SCAD、Bridge及MCP四种不同模型选择的惩罚项,研究了它们在群组变量中的方法及其块坐标下降算法,在Logistic模型的条件下进行模拟,结果表明Composite MCP组惩罚方法在预测能力和变量选择上均优于其他三种群组惩罚方法,并运用到销售网络办公软件公司的广告数据中,结果表示四种方法中Composite MCP方法在广告转化研究中效果是最优的,通过比较,选择出影响广告转化的群组结构及单个变量,为选择投放策略提供合理的依据。 展开更多
关键词 变量选择 块坐标下降算法 LOGISTIC模型 广告转化
下载PDF
广义线性模型基于SCAD和MCP的组变量选择方法研究 被引量:1
4
作者 孔璐 王明秋 《曲阜师范大学学报(自然科学版)》 CAS 2017年第1期33-40,共8页
组变量出现在许多统计建模问题中,如回归模型中的多水平分类变量可以由一组哑变量表示.Group MCP和Group SCAD因具有Oracle性质被广泛使用.该文将这两种方法应用于广义线性模型,分别在Logistic回归模型和Poisson回归模型中研究了基于Gro... 组变量出现在许多统计建模问题中,如回归模型中的多水平分类变量可以由一组哑变量表示.Group MCP和Group SCAD因具有Oracle性质被广泛使用.该文将这两种方法应用于广义线性模型,分别在Logistic回归模型和Poisson回归模型中研究了基于Group SCAD和Group MCP的组变量选择.通过数据模拟和实际数据分析,验证了这两种方法具有非常好的表现. 展开更多
关键词 变量选择 广义线性模型 GROUP SCAD GROUP MCP
下载PDF
基于两种非凸惩罚函数的稀疏组变量选择 被引量:4
5
作者 李鹏翔 叶万洲 《应用数学与计算数学学报》 2018年第3期437-446,共10页
利用正则化方法来进行变量选择是近年来研究的热点.在实际应用中解释变量常常以组的形式存在,通常我们希望将重要的组和组内重要的协变量选择出来,即双重变量选择.基于两种非凸惩罚函数SCAD和MCP,分别提出了稀疏Group SCAD和稀疏Group ... 利用正则化方法来进行变量选择是近年来研究的热点.在实际应用中解释变量常常以组的形式存在,通常我们希望将重要的组和组内重要的协变量选择出来,即双重变量选择.基于两种非凸惩罚函数SCAD和MCP,分别提出了稀疏Group SCAD和稀疏Group MCP估计方法,通过分块坐标下降迭代算法,达到组内和组间变量同时稀疏的效果.数值模拟结果表明本文提出的两种方法在模型预测和变量选择能力上优于Group Lasso和稀疏Group Lasso算法.并将该算法有效地应用于实际的初生儿体重数据集分析中. 展开更多
关键词 变量选择 内稀疏 稀疏Group SCAD 稀疏Group MCP
下载PDF
Logistic回归模型的稳健组变量选择 被引量:3
6
作者 孙国芳 王明秋 《统计与决策》 CSSCI 北大核心 2021年第2期42-45,共4页
在统计建模中,变量选择是一个很重要的环节,对数据分析有非常重要的作用。许多统计建模问题中都有组变量的存在,在组变量选择问题中,group MCP和group SCAD因具有Oracle性质而被广泛使用,同时group LASSO也是一种比较经典的方法。文章... 在统计建模中,变量选择是一个很重要的环节,对数据分析有非常重要的作用。许多统计建模问题中都有组变量的存在,在组变量选择问题中,group MCP和group SCAD因具有Oracle性质而被广泛使用,同时group LASSO也是一种比较经典的方法。文章将这三种方法应用到logistic回归模型中,研究了当协变量存在异常值时的组变量选择问题,提出了加权惩罚似然函数来消除异常值对估计的影响,并且通过数据模拟验证了加权方法有非常好的表现。 展开更多
关键词 LOGISTIC回归模型 变量选择 加权似然函数 稳健估计
下载PDF
基于惩罚方法的贝叶斯群组变量选择
7
作者 牟建波 刘赪 《绵阳师范学院学报》 2017年第2期6-13,共8页
本文针对既选择组水平变量又选择组内单个变量这两种情况下的变量选择惩罚方法,从贝叶斯的角度进行分析,指出其能被表示为一个最大后验估计.之后,给出贝叶斯框架下的两种群组变量选择惩罚方法的层次模型表达形式,并给出参数估计适于Gibb... 本文针对既选择组水平变量又选择组内单个变量这两种情况下的变量选择惩罚方法,从贝叶斯的角度进行分析,指出其能被表示为一个最大后验估计.之后,给出贝叶斯框架下的两种群组变量选择惩罚方法的层次模型表达形式,并给出参数估计适于Gibbs抽样的满条件分布.最后,通过模拟比较得出结论:分别用BGL、BSGL模型进行组变量选择和双层变量选择是可行的,但得到的模型在验证集上的预测误差较大. 展开更多
关键词 变量选择 惩罚函数 贝叶斯Group lasso 贝叶斯稀疏Group lasso GIBBS抽样
下载PDF
组稀疏模型及其算法综述 被引量:8
8
作者 刘建伟 崔立鹏 罗雄麟 《电子学报》 EI CAS CSCD 北大核心 2015年第4期776-782,共7页
稀疏性与组稀疏性在统计学、信号处理和机器学习等领域中具有重要的应用.本文总结和分析了不同组稀疏模型之间的区别与联系,比较了不同组稀疏模型的变量选择能力、变量组选择能力、变量选择一致性和变量组选择一致性,总结了组稀疏模型... 稀疏性与组稀疏性在统计学、信号处理和机器学习等领域中具有重要的应用.本文总结和分析了不同组稀疏模型之间的区别与联系,比较了不同组稀疏模型的变量选择能力、变量组选择能力、变量选择一致性和变量组选择一致性,总结了组稀疏模型的各类求解算法并指出了各算法的优点和不足.最后,本文对组稀疏模型未来的研究方向进行了探讨. 展开更多
关键词 稀疏性 稀疏性 变量选择 变量组选择 一致性
下载PDF
基于Capped L1罚函数的组稀疏模型
9
作者 崔立鹏 于玲 +2 位作者 范平平 吴宝杰 翟永君 《现代计算机(中旬刊)》 2018年第11期22-26,共5页
近年来,稀疏化研究在人工智能领域非常流行。变量之间往往存在组结构,Group Lasso利用这种组结构并且可以实现变量组选择。将Capped L1罚推广到变量组选择情形下,提出能够和Group Lasso一样实现变量组选择的GroupCapped L1,然后利用块... 近年来,稀疏化研究在人工智能领域非常流行。变量之间往往存在组结构,Group Lasso利用这种组结构并且可以实现变量组选择。将Capped L1罚推广到变量组选择情形下,提出能够和Group Lasso一样实现变量组选择的GroupCapped L1,然后利用块坐标下降算法求解Group Capped L1的最优化问题。通过实验证明与Group Lasso相比,所提出的Group Capped L1是一种有竞争力的方法。 展开更多
关键词 稀疏化 变量组选择 Capped L1罚
下载PDF
考虑数据成组现象的企业信用风险预警模型 被引量:3
10
作者 黄秋彧 黄羽翼 鲁亚军 《统计与决策》 CSSCI 北大核心 2021年第3期172-175,共4页
大数据时代企业征信数据出现了较为明显的成组现象,这对企业信用风险预警模型的开发提出了新的挑战。文章在Cox比例风险模型框架下,引入bi-level组变量选择方法筛选影响企业信用风险因素。数值模拟及实证研究表明,文章引用的模型要优于... 大数据时代企业征信数据出现了较为明显的成组现象,这对企业信用风险预警模型的开发提出了新的挑战。文章在Cox比例风险模型框架下,引入bi-level组变量选择方法筛选影响企业信用风险因素。数值模拟及实证研究表明,文章引用的模型要优于基于Group Lasso、Lasso罚及不加罚的Cox模型,且每股未分配利润、资产报酬率、营业利润/营业总收入三个指标对企业信用风险具有显著的负向效应。 展开更多
关键词 企业信用风险 bi-level变量选择方法 COX比例风险模型
下载PDF
基于CMCP-LMCL的多分类深度神经网络及其应用
11
作者 王小燕 冮建伟 姚欣悦 《统计研究》 CSSCI 北大核心 2024年第7期148-160,共13页
多分类问题涉及信用风险管理、股票走势预测等多个领域。深度神经网络(DNN)是常用于多分类预测的机器学习模型,然而输入特征维度较高且存在冗余信号时,将加重其可解释性不强和结构冗余等缺陷;同时,常用的Softmax损失也可能面临分类边界... 多分类问题涉及信用风险管理、股票走势预测等多个领域。深度神经网络(DNN)是常用于多分类预测的机器学习模型,然而输入特征维度较高且存在冗余信号时,将加重其可解释性不强和结构冗余等缺陷;同时,常用的Softmax损失也可能面临分类边界模糊导致预测效果不佳等问题。为此,本文针对多分类问题,提出一个新的深度神经网络CMCP-LMCL,利用CMCP变量选择方法压缩输入特征到第1隐藏层的权重。该方法融合权重的组结构,能够剔除无关特征以及不重要的连接;同时,对特征层之外的权重施加权重衰减L;2;惩罚,有利于改进过拟合问题。新方法的增强边缘余弦损失(LMCL)在Softmax基础上引入扩大参数和距离参数,增大分类决策边界的间隔以期提高分类预测性能。模拟分析表明,对比已有DNN和传统分类方法,无论特征以简单线性形式还是复杂非线性形式映射到因变量,本文所提出的方法均具有良好的特征选择性能和预测表现。基于信用贷款数据的实证分析表明,该方法能够有效选择风险指标并进行违约风险预警。 展开更多
关键词 变量选择 深度神经网络 多分类 信用风险评估
下载PDF
基于组效应的变量选择模型在财务数据上的应用研究
12
作者 吴建民 《数学的实践与认识》 2023年第8期260-266,共7页
上市公司的财务数据往往呈现出高维度,强相关性和组效应特征,传统的回归模型不再适用,基于惩罚函数建立稀疏模型成为了当前研究的热点.在线性回归模型基础上,基于组变量和双重变量选择方法研究了具有组效应的高维数据协变量选择模型.模... 上市公司的财务数据往往呈现出高维度,强相关性和组效应特征,传统的回归模型不再适用,基于惩罚函数建立稀疏模型成为了当前研究的热点.在线性回归模型基础上,基于组变量和双重变量选择方法研究了具有组效应的高维数据协变量选择模型.模拟对比研究发现,cMCP方法的预测误差更小,冗余变量和重要变量的选择比较合理.同时,通过制造业每股收益的数据进行实证分析显示,cMCP方法在变量选择上更贴合实际,能有效降低变量之间的多重共线性,使得模型的可解释性更强. 展开更多
关键词 高维数据 效应 变量选择 双重变量选择
原文传递
分位数贝叶斯组变量选择及其在变点检测中应用 被引量:1
13
作者 冯俊丰 林芳逗 赵为华 《数理统计与管理》 CSSCI 北大核心 2022年第5期815-830,共16页
本文研究分位数回归的组变量选择问题。基于分位数回归和贝叶斯统计推断方法,通过引入系数的组“spike and slab”先验分布,提出了分位数回归的贝叶斯组变量选择方法,并给出易于实施的Gibbs后验抽样算法。进一步,本文还将所建立的贝叶... 本文研究分位数回归的组变量选择问题。基于分位数回归和贝叶斯统计推断方法,通过引入系数的组“spike and slab”先验分布,提出了分位数回归的贝叶斯组变量选择方法,并给出易于实施的Gibbs后验抽样算法。进一步,本文还将所建立的贝叶斯组变量选择方法应用到变点检测中,变点的数量和位置的探测准确率较高。数值模拟和两个实例分析验证了所提方法的有效性。 展开更多
关键词 分位数回归 贝叶斯变量选择 变点检测 Gibbs后验抽样
原文传递
稀疏Group Lasso高维统计分析 被引量:2
14
作者 丁毅涛 张吐辉 张海 《西北大学学报(自然科学版)》 CAS CSCD 北大核心 2014年第2期177-182,共6页
研究稀疏Group Lasso方法的高维统计性质。通过对损失函数和罚函数的性质分析,以及选择适当的正则参数λn。得到了稀疏Group Lasso估计的界。当损失函数与罚函数满足适当的条件,任意解θλn和未知参数θ*有统一的误差界。
关键词 变量选择 稀疏性 Lasso 罚函数
下载PDF
一种能够实现双层稀疏性的Group Logarithm模型
15
作者 崔立鹏 郭红霞 沈洁 《苏州市职业大学学报》 2021年第2期40-45,共6页
稀疏化模型研究是人工智能领域研究的热点之一。对于该问题Lasso模型忽略了变量之间的组结构,只能实现分散的变量选择;Group Lasso也只能实现变量组选择。本研究提出Group Logarithm模型,该模型能同时进行变量组选择和组内的变量选择,... 稀疏化模型研究是人工智能领域研究的热点之一。对于该问题Lasso模型忽略了变量之间的组结构,只能实现分散的变量选择;Group Lasso也只能实现变量组选择。本研究提出Group Logarithm模型,该模型能同时进行变量组选择和组内的变量选择,并利用局部坐标下降算法求解Group Logarithm模型。最后,通过实验说明了该模型具有更优越的预测准确性和变量选择稀疏性。 展开更多
关键词 人工智能 稀疏性 变量选择 变量组选择
下载PDF
超高维数据特征筛选方法综述 被引量:8
16
作者 牛勇 李华鹏 +3 位作者 刘阳惠 熊世峰 於州 张日权 《应用概率统计》 CSCD 北大核心 2021年第1期69-110,共42页
随着数据收集和存储能力的大幅提高,超高维数据[9],即数据维数伴随着样本呈指数增长,频繁出现在许多科学邻域.此时,惩罚类变量选择方法普遍遭遇三个方面的挑战:计算的复杂性,统计的准确性以及算法的稳定性.Fan和Lv[9]首先提出超高维特... 随着数据收集和存储能力的大幅提高,超高维数据[9],即数据维数伴随着样本呈指数增长,频繁出现在许多科学邻域.此时,惩罚类变量选择方法普遍遭遇三个方面的挑战:计算的复杂性,统计的准确性以及算法的稳定性.Fan和Lv[9]首先提出超高维特征筛选的方法,并在近十多年取得大量研究成果,成为当今统计最热点的研究邻域.本文主要从带模型假设,包含参数、非参数半参数模型假定的筛选方法、无模型假设的筛选以及特殊数据的筛选方法四个角度来介绍超高维筛选相关工作,并简要探讨目前超高维筛选方法存在的问题以及未来可能的研究方向. 展开更多
关键词 超高维 特征筛选 可加模型 非参数独立筛选 确保筛选性质 线性模型 变量选择 变量选择 充分降维 纵向数据 稀疏性
下载PDF
Elastic Net方法在纵向数据模型中的应用
17
作者 许丽庆 田凯 熊琴 《数学理论与应用》 2016年第2期61-66,共6页
将Elastic Net方法(EN方法)运用于平衡纵向数据模型的变量选择中,建立了相应的纵向数据模型,证明了平衡纵向数据模型的EN估计具有组效应性质,通过数值模拟比较EN方法和Lasso方法,表明EN方法在处理强相关变量时因其能将强相关变量全部选... 将Elastic Net方法(EN方法)运用于平衡纵向数据模型的变量选择中,建立了相应的纵向数据模型,证明了平衡纵向数据模型的EN估计具有组效应性质,通过数值模拟比较EN方法和Lasso方法,表明EN方法在处理强相关变量时因其能将强相关变量全部选入纵向数据模型而优于Lasso方法. 展开更多
关键词 ELASTIC Net方法 纵向数据模型 变量选择效应性质
下载PDF
Spectroscopic Multicomponent Analysis Using Multi-objective Optimization for Variable Selection 被引量:1
18
作者 Anderson da Silva Soares Telma Woerle de Lima +3 位作者 Daniel Vitor de LuPcena Rogerio Lopes Salvini GustavoTeodoro Laureano Clarimar Jose Coelho 《Computer Technology and Application》 2013年第9期466-475,共10页
The multiple determination tasks of chemical properties are a classical problem in analytical chemistry. The major problem is concerned in to find the best subset of variables that better represents the compounds. The... The multiple determination tasks of chemical properties are a classical problem in analytical chemistry. The major problem is concerned in to find the best subset of variables that better represents the compounds. These variables are obtained by a spectrophotometer device. This device measures hundreds of correlated variables related with physicocbemical properties and that can be used to estimate the component of interest. The problem is the selection of a subset of informative and uncorrelated variables that help the minimization of prediction error. Classical algorithms select a subset of variables for each compound considered. In this work we propose the use of the SPEA-II (strength Pareto evolutionary algorithm II). We would like to show that the variable selection algorithm can selected just one subset used for multiple determinations using multiple linear regressions. For the case study is used wheat data obtained by NIR (near-infrared spectroscopy) spectrometry where the objective is the determination of a variable subgroup with information about E protein content (%), test weight (Kg/HI), WKT (wheat kernel texture) (%) and farinograph water absorption (%). The results of traditional techniques of multivariate calibration as the SPA (successive projections algorithm), PLS (partial least square) and mono-objective genetic algorithm are presents for comparisons. For NIR spectral analysis of protein concentration on wheat, the number of variables selected from 775 spectral variables was reduced for just 10 in the SPEA-II algorithm. The prediction error decreased from 0.2 in the classical methods to 0.09 in proposed approach, a reduction of 37%. The model using variables selected by SPEA-II had better prediction performance than classical algorithms and full-spectrum partial least-squares. 展开更多
关键词 Multi-objective algorithms variable selection linear regression.
下载PDF
Concave group methods for variable selection and estimation in high-dimensional varying coefficient models 被引量:1
19
作者 YANG GuangRen HUANG Jian ZHOU Yong 《Science China Mathematics》 SCIE 2014年第10期2073-2090,共18页
The varying-coefficient model is flexible and powerful for modeling the dynamic changes of regression coefficients. We study the problem of variable selection and estimation in this model in the sparse, high- dimensio... The varying-coefficient model is flexible and powerful for modeling the dynamic changes of regression coefficients. We study the problem of variable selection and estimation in this model in the sparse, high- dimensional case. We develop a concave group selection approach for this problem using basis function expansion and study its theoretical and empirical properties. We also apply the group Lasso for variable selection and estimation in this model and study its properties. Under appropriate conditions, we show that the group least absolute shrinkage and selection operator (Lasso) selects a model whose dimension is comparable to the underlying mode], regardless of the large number of unimportant variables. In order to improve the selection results, we show that the group minimax concave penalty (MCP) has the oracle selection property in the sense that it correctly selects important variables with probability converging to one under suitable conditions. By comparison, the group Lasso does not have the oracle selection property. In the simulation parts, we apply the group Lasso and the group MCP. At the same time, the two approaches are evaluated using simulation and demonstrated on a data example. 展开更多
关键词 basis expansion group lasso group MCP high-dimensional data SPARSITY oracle property
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部