期刊文献+
共找到6篇文章
< 1 >
每页显示 20 50 100
基于自适应低秩表示的多任务AUC优化算法
1
作者 孙宇辰 许倩倩 +2 位作者 王子泰 杨智勇 黄庆明 《计算机学报》 EI CAS CSCD 北大核心 2024年第11期2678-2690,共13页
多任务学习是一种基于相似任务之间的关联性进行学习迁移,使得模型在数据不足场景下仍能表现出良好泛化性能的学习方法.在该领域内,大多数现有以准确率作为基准评价标准的方法只适用于平衡分布场景.然而,诸多实际应用如疾病检测、垃圾... 多任务学习是一种基于相似任务之间的关联性进行学习迁移,使得模型在数据不足场景下仍能表现出良好泛化性能的学习方法.在该领域内,大多数现有以准确率作为基准评价标准的方法只适用于平衡分布场景.然而,诸多实际应用如疾病检测、垃圾邮件检测等,均涉及样本分布不平衡问题.针对多任务学习面向任务相关性的高要求,即当模型学习和共享不相关知识时,负迁移可能会影响模型朝着错误方向训练.因此,大多数现有方法在此类场景中无法得到有效应用.为解决该实际问题,设计一种能适用于样本不平衡场景的多任务学习算法变得尤为重要.本文提出了一种基于自适应低秩表示的多任务AUC优化算法,首先引入了对标签分布不敏感的ROC曲线下面积(AUC)作为该学习任务的评价指标,并建立了一种用于AUC优化的多任务学习算法,以提高模型在样本不平衡场景下的性能表现.同时,为进一步有效优化模型,本文将原始成对优化问题重构为逐样本极大极小优化问题,使得每一轮迭代复杂度由O(Ln_(i,+)n_(i,-))降低至O(L(n_(i,+)+n_(i,-))).针对多任务学习中存在的负迁移现象,本文引入了一种自适应低秩正则项,以消除模型冗余信息,同时提高模型的泛化性能.最后,通过与多个对比方法在四个仿真数据集和三个真实数据集Landmine、MHC-I和USPS上的比较,所有实验结果一致证明了本文所提出算法的有效性. 展开更多
关键词 多任务学习 auc优化 低秩表示
下载PDF
基于数据重平衡的AUC优化Boosting算法 被引量:8
2
作者 李秋洁 茅耀斌 《自动化学报》 EI CSCD 北大核心 2013年第9期1467-1475,共9页
接收者操作特性(Receiver operating characteristics,ROC)曲线下面积(Area under the ROC curve,AUC)常被用于度量分类器在整个类先验分布上的总体分类性能.原始Boosting算法优化分类精度,但在AUC度量下并非最优.提出了一种AUC优化Boos... 接收者操作特性(Receiver operating characteristics,ROC)曲线下面积(Area under the ROC curve,AUC)常被用于度量分类器在整个类先验分布上的总体分类性能.原始Boosting算法优化分类精度,但在AUC度量下并非最优.提出了一种AUC优化Boosting改进算法,通过在原始Boosting迭代中引入数据重平衡操作,实现弱学习算法优化目标从精度向AUC的迁移.实验结果表明,较之原始Boosting算法,新算法在AUC度量下能获得更好性能. 展开更多
关键词 auc优化 BOOSTING 精度优化 数据重平衡
下载PDF
一种线性的在线AUC优化方法 被引量:4
3
作者 朱真峰 翟艳祥 叶阳东 《计算机研究与发展》 EI CSCD 北大核心 2018年第12期2725-2733,共9页
AUC(area under the ROC curve)优化问题的损失函数由来自不同类别的样本对构成,这使得依赖于损失函数之和的目标函数与训练样本数二次相关,不能直接使用传统在线学习方法求解.当前的在线AUC优化算法聚焦于在求解过程中避免直接计算所... AUC(area under the ROC curve)优化问题的损失函数由来自不同类别的样本对构成,这使得依赖于损失函数之和的目标函数与训练样本数二次相关,不能直接使用传统在线学习方法求解.当前的在线AUC优化算法聚焦于在求解过程中避免直接计算所有的损失函数,以减小问题的规模,实现在线AUC优化.针对以上问题提出了一种AUC优化的新目标函数,该目标函数仅与训练样本数线性相关;理论分析表明:最小化该目标函数等价于最小化由L2正则化项和最小二乘损失函数组成的AUC优化的目标函数.基于新的目标函数,提出了在线AUC优化的线性方法(linear online AUC maximization,LOAM);根据不同的分类器更新策略,给出2种算法LOAMILSC和LOAMAda.实验表明:与原有方法相比,LOAMILSC算法获得了更优的AUC性能,而对于实时或高维学习任务,LOAMAda算法更加高效. 展开更多
关键词 分类 auc优化 在线学习 线性方法 最小二乘损失
下载PDF
基于AUC优化的非线性主动学习算法及其在障碍物检测中的应用
4
作者 韩光 赵春霞 胡雪蕾 《机器人》 EI CSCD 北大核心 2010年第3期344-351,共8页
针对障碍物检测中因样本量过大而造成的标记困难以及样本分布不均衡等问题,提出了一种基于AUC优化的非线性主动学习算法.该算法的计算处理过程是:首先利用基于AUC优化的算法在训练集上对非线性分类器进行训练;然后利用已训练好的分类器... 针对障碍物检测中因样本量过大而造成的标记困难以及样本分布不均衡等问题,提出了一种基于AUC优化的非线性主动学习算法.该算法的计算处理过程是:首先利用基于AUC优化的算法在训练集上对非线性分类器进行训练;然后利用已训练好的分类器对所有未标记样本进行分类;接着利用基于AUC优化的样本选择函数计算分类后的样本的得分;最后算法根据分值大小选出最有信息量样本,并且专家根据该样本所在的图像及在图像中位置对其进行标记并放入训练集中.重复上述过程,直到AUC收敛为止.在户外环境图像库上进行了实验,结果表明:该算法能显著减小数据标记的工作量,并能解决因样本分布不平衡而引起的次优解问题,与已有主动学习算法相比性能更优. 展开更多
关键词 障碍物检测 主动学习 auc优化 非线性分类器 梯度下降法
下载PDF
半监督AUC优化的Boosting算法及理论 被引量:6
5
作者 杨智勇 许倩倩 +2 位作者 何源 操晓春 黄庆明 《计算机学报》 EI CAS CSCD 北大核心 2022年第8期1598-1617,共20页
ROC曲线下面积(Area Under the ROC Curve,AUC)是类不均衡/二分排序等问题中的标准评价指标之一.本文主要聚焦于半监督AUC优化方法.现有大多数方法局限于通过单一模型进行半监督AUC优化,对如何通过模型集成技术融合多个模型则鲜有涉及.... ROC曲线下面积(Area Under the ROC Curve,AUC)是类不均衡/二分排序等问题中的标准评价指标之一.本文主要聚焦于半监督AUC优化方法.现有大多数方法局限于通过单一模型进行半监督AUC优化,对如何通过模型集成技术融合多个模型则鲜有涉及.考虑上述局限性,本文主要研究基于模型集成的半监督AUC优化方法.具体而言,本文提出一种基于Boosting算法的半监督AUC优化算法,并提出基于权重解耦的加速策略以降低算法时间/空间复杂度.进一步地,在优化层面,本文通过理论分析证明了所提出的算法相对于弱分类器的增加具有指数收敛速率;在模型泛化能力层面,本文构造了所提出算法的泛化误差上界,并证明增加弱分类器个数在提升训练集性能的同时并不会带来明显的过拟合风险.最后,本文在16个基准数据集上对所提出算法的性能进行了验证,实验结果表明所提出算法在多数情况下以0.05显著水平优于其他对比方法,并可在平均意义上产生0.9%~11.28%的性能提升. 展开更多
关键词 auc优化 集成学习 半监督学习 提升法 Rademacher复杂度
下载PDF
WPLoss:面向类别不平衡数据的加权成对损失 被引量:8
6
作者 姚佳奇 徐正国 +1 位作者 燕继坤 王科人 《计算机应用研究》 CSCD 北大核心 2021年第3期702-704,709,共4页
类别不平衡数据是指不同类别的样本数目差异很大,AUC(area under the ROC curve)是衡量不平衡数据分类器性能的一个重要指标,由于AUC不可微,研究者提出了众多替代成对损失函数优化AUC。成对损失的样本对数目为正负样本数目的乘积,大量... 类别不平衡数据是指不同类别的样本数目差异很大,AUC(area under the ROC curve)是衡量不平衡数据分类器性能的一个重要指标,由于AUC不可微,研究者提出了众多替代成对损失函数优化AUC。成对损失的样本对数目为正负样本数目的乘积,大量成对损失较小的正负样本对影响了分类器的性能。针对这一问题,提出了一种加权的成对损失函数WPLoss,通过赋予成对损失较大的正负样本对更高的损失权重,减少大量成对损失较小的正负样本对的影响,进而提升分类器的性能。在20newsgroup和Reuters-21578数据集上的实验结果验证了WPLoss的有效性,表明WPLoss能够提升面向不平衡数据的分类器性能。 展开更多
关键词 不平衡分类 加权成对损失 auc优化
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部