期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
多任务学习 被引量:29
1
作者 张钰 刘建伟 左信 《计算机学报》 EI CSCD 北大核心 2020年第7期1340-1378,共39页
随着图像处理,语音识别等人工智能技术的发展,很多学习方法尤其是采用深度学习框架的方法取得了优异的性能,在精度和速度方面有了很大的提升,但随之带来的问题也很明显,这些学习方法如果要获得稳定的学习效果,往往需要使用数量庞大的标... 随着图像处理,语音识别等人工智能技术的发展,很多学习方法尤其是采用深度学习框架的方法取得了优异的性能,在精度和速度方面有了很大的提升,但随之带来的问题也很明显,这些学习方法如果要获得稳定的学习效果,往往需要使用数量庞大的标注数据进行充分训练,否则就会出现欠拟合的情况而导致学习性能的下降.因此,随着任务复杂程度和数据规模的增加,对人工标注数据的数量和质量也提出了更高的要求,造成了标注成本和难度的增大.同时,单一任务的独立学习往往忽略了来自其它任务的经验信息,致使训练冗余重复和学习资源的浪费,也限制了其性能的提升.为了缓解这些问题,属于迁移学习范畴的多任务学习方法逐渐引起了研究者的重视.与单任务学习只使用单个任务的样本信息不同,多任务学习假设不同任务数据分布之间存在一定的相似性,在此基础上通过共同训练和优化建立任务之间的联系.这种训练模式充分促进任务之间的信息交换并达到了相互学习的目的,尤其是在各自任务样本容量有限的条件下,各个任务可以从其它任务获得一定的启发,借助于学习过程中的信息迁移能间接利用其它任务的数据,从而缓解了对大量标注数据的依赖,也达到了提升各自任务学习性能的目的.在此背景之下,本文首先介绍了相关任务的概念,并按照功能的不同对相关任务的类型进行划分,之后对它们的特点进行了逐一描述.然后,本文按照数据的处理模式和任务关系的建模过程不同将当前的主流算法划分为两大类:结构化多任务学习算法和深度多任务学习算法.其中,结构化多任务学习算法采用线性模型,可以直接针对数据进行结构假设并且使用原有标注特征表述任务关系,同时,又可根据学习对象的不同将其细分为基于任务层面和基于特征层面两种不同结构,每种结构有判别式方法和生成式方法两种实现手段.与结构化多任务学习算法的建模过程不同,深度多任务学习算法利用经过多层特征抽象后的深层次信息进行任务关系描述,通过处理特定网络层中的参数达到信息共享的目的.紧接着,以两大类算法作为主线,本文详细分析了不同建模方法中对任务关系的结构假设、实现途径、各自的优缺点以及方法之间的联系.最后,本文总结了任务之间相似性及其紧密程度的判别依据,并且分析了多任务作用机制的有效性和内在成因,从归纳偏置和动态求解等角度阐述了多任务信息迁移的特点. 展开更多
关键词 多任务学习 信息迁移 任务相似性 贝叶斯生成式模型多任务学习 判别式多任务学习 深度多任务学习
下载PDF
自适应重加权池化深度多任务学习的表情识别 被引量:3
2
作者 王晓峰 王昆 +1 位作者 刘轩 郝潇 《计算机工程与设计》 北大核心 2022年第4期1111-1120,共10页
为实现表情准确且快速的识别,提出一种自适应重加权池化深度多任务学习(DMTL)的表情识别。设计孪生神经网络,通过自适应重加权模块动态调整缩放概率参数,得到具有不同置信度的类别标签信息。改进自适应池化方法,根据样本及训练过程变化... 为实现表情准确且快速的识别,提出一种自适应重加权池化深度多任务学习(DMTL)的表情识别。设计孪生神经网络,通过自适应重加权模块动态调整缩放概率参数,得到具有不同置信度的类别标签信息。改进自适应池化方法,根据样本及训练过程变化情况选取合适参数,提高特征提取的灵活性。结合类别标签信息和样本局部空间分布信息,利用改进型判别式DMTL进行人脸表情识别。基于CK+、MMI和FER2013数据集对所提方法进行实验论证,实验结果表明,其识别率在3个数据集上的识别率分别是95.2%、84.1%和73.6%,执行时间为0.082 s,均优于其它对比方法。 展开更多
关键词 表情识别 判别式深度多任务学习 孪生神经网络 自适应重加权 自适应池化 局部空间分布
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部