期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
基于负学习的样本重加权鲁棒学习方法
1
作者 邹博士 杨铭 +2 位作者 宗辰辰 谢明昆 黄圣君 《计算机应用》 CSCD 北大核心 2024年第5期1479-1484,共6页
噪声标记学习方法能够有效利用含有噪声标记的数据训练模型,显著降低大规模数据集的标注成本。现有的噪声标记学习方法通常假设数据集中各个类别的样本数目是平衡的,但许多真实场景下的数据往往存在噪声标记,且数据的真实分布具有长尾现... 噪声标记学习方法能够有效利用含有噪声标记的数据训练模型,显著降低大规模数据集的标注成本。现有的噪声标记学习方法通常假设数据集中各个类别的样本数目是平衡的,但许多真实场景下的数据往往存在噪声标记,且数据的真实分布具有长尾现象,这导致现有方法难以设计有效的指标,如训练损失或置信度区分尾部类别中的干净样本和噪声样本。为了解决噪声长尾学习问题,提出一种基于负学习的样本重加权鲁棒学习(NLRW)方法。具体来说,根据模型对头部类别和尾部类别样本的输出分布,提出一种新的样本权重计算方法,能够使干净样本的权重接近1,噪声样本的权重接近0。为了保证模型对样本的输出准确,结合负学习和交叉熵损失使用样本加权的损失函数训练模型。实验结果表明,在多种不平衡率和噪声率的CIFAR-10以及CIFAR-100数据集上,NLRW方法相较于噪声长尾分类的最优基线模型TBSS(Two stage Bi-dimensional Sample Selection),平均准确率分别提升4.79%和3.46%。 展开更多
关键词 噪声标记学习 长尾学习 噪声长尾学习 样本重加权 负学习
下载PDF
基于不稳定性采样的主动学习方法
2
作者 何花 谢明昆 黄圣君 《国防科技大学学报》 EI CAS CSCD 北大核心 2022年第3期50-56,共7页
传统的主动学习方法往往仅基于当前的目标模型来挑选样本,而忽略了历史模型所蕴含的对未标注样本预测稳定性的信息。因此,提出基于不稳定性采样的主动学习方法,依据历史模型的预测差异来估计每个未标注样本对提高模型性能的潜在效用。... 传统的主动学习方法往往仅基于当前的目标模型来挑选样本,而忽略了历史模型所蕴含的对未标注样本预测稳定性的信息。因此,提出基于不稳定性采样的主动学习方法,依据历史模型的预测差异来估计每个未标注样本对提高模型性能的潜在效用。该方法基于历史模型对样本的预测后验概率之间的差异来衡量无标注样本的不稳定性,并挑选最不稳定的样本进行查询。在多个数据集上的大量实验结果验证了方法的有效性。 展开更多
关键词 主动学习 标注代价 不稳定性 后验概率
下载PDF
Sequential Cooperative Distillation for Imbalanced Multi-Task Learning
3
作者 Quan Feng Jia-Yu Yao +2 位作者 Ming-Kun Xie Sheng-Jun Huang Song-Can Chen 《Journal of Computer Science & Technology》 SCIE EI 2024年第5期1094-1106,共13页
Multi-task learning(MTL)can boost the performance of individual tasks by mutual learning among multiple related tasks.However,when these tasks assume diverse complexities,their corresponding losses involved in the MTL... Multi-task learning(MTL)can boost the performance of individual tasks by mutual learning among multiple related tasks.However,when these tasks assume diverse complexities,their corresponding losses involved in the MTL objective inevitably compete with each other and ultimately make the learning biased towards simple tasks rather than complex ones.To address this imbalanced learning problem,we propose a novel MTL method that can equip multiple existing deep MTL model architectures with a sequential cooperative distillation(SCD)module.Specifically,we first introduce an efficient mechanism to measure the similarity between tasks,and group similar tasks into the same block to allow their cooperative learning from each other.Based on this,the grouped task blocks are sorted in a queue to determine the learning sequence of the tasks according to their complexities estimated with the defined performance indicator.Finally,a distillation between the individual task-specific models and the MTL model is performed block by block from complex to simple manner,achieving a balance between competition and cooperation among learning multiple tasks.Extensive experiments demonstrate that our method is significantly more competitive compared with state-of-the-art methods,ranking No.1 with average performances across multiple datasets by improving 12.95%and 3.72%compared with OMTL and MTLKD,respectively. 展开更多
关键词 multi-task learning(MIT) imbalanced learning similarity estimation knowledge distillation distillation queue
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部