期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
基于自注意力和自编码器的少样本学习 被引量:4
1
作者 冀中 柴星亮 《天津大学学报(自然科学与工程技术版)》 EI CSCD 北大核心 2021年第4期338-345,共8页
少样本学习旨在提高模型泛化能力,使用少量样本完成对新类别的分类,显著降低深度学习中样本的搜集标注成本和模型的训练成本.目前大多数基于度量学习的少样本学习方法关注模型对某一度量空间的适应,而很少关注提高样本特征的特异性表达... 少样本学习旨在提高模型泛化能力,使用少量样本完成对新类别的分类,显著降低深度学习中样本的搜集标注成本和模型的训练成本.目前大多数基于度量学习的少样本学习方法关注模型对某一度量空间的适应,而很少关注提高样本特征的特异性表达.当样本数量较少时,充分挖掘样本中的信息变得更加重要.基于不同特征图对同一类别的表征能力不同,提出一种通道自注意力的方法,将更具类别表现力的特征通道赋予更大的权重,完成特征图平衡,以提高样本特征表示的可鉴别性.为充分挖掘容易获取样本的更多信息,提出“空间原型”的概念.同时,受自编码器思想的启发,设计一种利用全体样本信息校正类别原型的方法来提高类别原型的准确性.作为一种无参数的增强型特征提取器,所提通道自注意力方法能有效避免少样本学习中广泛存在的模型迁移能力弱问题并且兼容于多种现有少样本学习方法,进一步提高其性能,展现出较好的泛化能力.将两种方法用于原型网络,所提方法在两个少样本分类主流数据集miniImageNet和CUB的3种分类场景下相对原方法均带来较大性能提升.特别地,当训练集和测试集领域跨度较大时,所提方法相对原方法可获得10.23%的绝对性能提升和17.04%的相对性能提升,这充分展现出所提方法的有效性. 展开更多
关键词 少样本学习 图像分类 机器学习 通道自注意力 自编码器
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部