期刊文献+

用于迁移学习的多尺度领域对抗网络 被引量:1

Multi-scale Domain Adversarial Network for Transfer Learning
下载PDF
导出
摘要 深度学习算法的有效性依赖于大量的带有标签的数据,迁移学习的目的是利用已知标签的数据集(源域)来对未知标签的数据集(目标域)进行分类,因此深度迁移学习的研究成为了热门。针对训练数据标签不足的问题,提出了一种基于多尺度特征融合的领域对抗网络(Multi-scale domain adversarial network,MSDAN)模型,该方法利用生成对抗网络以及多尺度特征融合的思想,得到了源域数据和目标域数据在高维特征空间中的特征表示,该特征表示提取到了源域数据和目标域数据的公共几何特征和公共语义特征。将源域数据的特征表示和源域标签输入到分类器中进行分类,最终在目标域数据集的测试上得到了较为先进的效果。 The effectiveness of deep learning algorithms depends on a large amount of labeled data.The purpose of transfer learning is to use a dataset with known labels(source domain)to classify a dataset with unknown labels(target domain),so the research of deep transfer learning has become a hotspot.For the problem of insufficient training data labels,a model of multi-scale domain adversarial network(MSDAN)based on multi-scale feature fusion is proposed.This method uses the idea of generating adversarial networks and multi-scale feature fusion to obtain the feature representation of the domain data and the target domain data in a high-dimensional feature space.The feature representation extracts common geometric features and common semantic features of the source domain data and the target domain data.The feature representation of the source domain data and the source domain label are input into the classifier for classification,and finally more advanced effect is obtained in the test of the target domain dataset.
作者 林佳伟 王士同 LIN Jiawei;WANG Shitong(College of Artificial Intelligence and Computer Science,Jiangnan University,Wuxi 214122,China;Internet of Things Application Technology Key Construction Laboratory of Jiangsu Province,Wuxi 214122,China)
出处 《数据采集与处理》 CSCD 北大核心 2022年第3期555-565,共11页 Journal of Data Acquisition and Processing
基金 国家自然科学基金(61972181)。
关键词 深度学习 迁移学习 多尺度特征融合 对抗域适应 公共语义特征 deep learning transfer learning multi-scale feature fusion adversarial domain adaptation common semantic feature
  • 相关文献

参考文献2

二级参考文献2

共引文献7

同被引文献5

引证文献1

二级引证文献2

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部