多任务学习是一种联合多个任务同时学习来增强模型表示和泛化能力的手段,任务之间的相关性是多任务学习的基本因素.为解决任务差异的内在冲突会损害部分任务的预测的问题,提出一种基于相关性学习层(correlation learning layer,CLL)的...多任务学习是一种联合多个任务同时学习来增强模型表示和泛化能力的手段,任务之间的相关性是多任务学习的基本因素.为解决任务差异的内在冲突会损害部分任务的预测的问题,提出一种基于相关性学习层(correlation learning layer,CLL)的多任务学习模型,并将该模型作为新的代理模型应用于贝叶斯优化算法中,以期解决昂贵的优化问题.在传统的多任务学习网络后面增加相关性学习层,使已经完成初步共享学习的任务在该层进行优化共享,令多个任务所学习到的知识充分交互起来.根据不同的基于参数的共享机制,构建带有相关性层的LeNet和径向基函数(radial basis function,RBF)多任务学习模型,在多任务版本的美国国家标准与技术研究所(Mixed National Institute of Standards and Technology,MNIST)数据集和任务相关性可控制的综合数据集上进行实验,验证了所提出的基于相关性层的多任务学习模型的有效性.将所提多任务学习网络作为代理模型应用于贝叶斯优化算法中,不仅能减少模型对目标问题的评价次数,还能成倍地扩充训练数据数量,进而提升模型的性能.展开更多
文摘多任务学习是一种联合多个任务同时学习来增强模型表示和泛化能力的手段,任务之间的相关性是多任务学习的基本因素.为解决任务差异的内在冲突会损害部分任务的预测的问题,提出一种基于相关性学习层(correlation learning layer,CLL)的多任务学习模型,并将该模型作为新的代理模型应用于贝叶斯优化算法中,以期解决昂贵的优化问题.在传统的多任务学习网络后面增加相关性学习层,使已经完成初步共享学习的任务在该层进行优化共享,令多个任务所学习到的知识充分交互起来.根据不同的基于参数的共享机制,构建带有相关性层的LeNet和径向基函数(radial basis function,RBF)多任务学习模型,在多任务版本的美国国家标准与技术研究所(Mixed National Institute of Standards and Technology,MNIST)数据集和任务相关性可控制的综合数据集上进行实验,验证了所提出的基于相关性层的多任务学习模型的有效性.将所提多任务学习网络作为代理模型应用于贝叶斯优化算法中,不仅能减少模型对目标问题的评价次数,还能成倍地扩充训练数据数量,进而提升模型的性能.