期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
基于跨域结构保持投影的异构在线多源迁移学习方法
1
作者 蒋晓玲 吴映波 +1 位作者 陈蒙 瞿祥谋 《电子学报》 EI CAS CSCD 北大核心 2023年第8期1983-1994,共12页
异构在线迁移学习使用异构源域的离线数据弥补目标域在线学习数据不足,从而提高目标域在线学习性能.现有方法通常假定源域是目标域特征空间子集或依赖特定的辅助数据.本文提出一种基于跨域结构保持投影的异构在线多源迁移学习方法 .通... 异构在线迁移学习使用异构源域的离线数据弥补目标域在线学习数据不足,从而提高目标域在线学习性能.现有方法通常假定源域是目标域特征空间子集或依赖特定的辅助数据.本文提出一种基于跨域结构保持投影的异构在线多源迁移学习方法 .通过跨域结构保持投影,同时将每个源域与目标域的特征空间映射到公共子空间,并基于公共子空间中的跨域离线混合数据和目标域在线数据分别进行离线学习和在线学习,提出采用一种双层差异导向对冲集成策略,实现源域离线学习模型与目标域在线学习模型的两层集成融合和在线演化更新.基于本文方法设计实现了一种异构在线多源迁移多分类算法,且理论分析了该算法的分类错误上界.实验结果表明,本文方法能有效实现异构在线多源迁移学习并降低目标域在线多分类错误率,且优于同类的在线多源迁移学习方法. 展开更多
关键词 异构迁移学习 在线学习 跨域结构保持投影 特征空间 多分类
下载PDF
一种非独立同分布问题下的联邦数据增强算法 被引量:1
2
作者 瞿祥谋 吴映波 蒋晓玲 《计算机科学》 CSCD 北大核心 2022年第12期33-39,共7页
在联邦学习中,由于用户的本地数据分布会随着用户所在地以及用户偏好而变动,数据的非独立同分布下的用户数据可能缺少某些标签类别的数据,在模型聚合中显著影响了迭代更新速率和最终的模型性能。为了解决这一问题,提出了一种基于条件生... 在联邦学习中,由于用户的本地数据分布会随着用户所在地以及用户偏好而变动,数据的非独立同分布下的用户数据可能缺少某些标签类别的数据,在模型聚合中显著影响了迭代更新速率和最终的模型性能。为了解决这一问题,提出了一种基于条件生成对抗网络进行联邦数据增强的算法,能够在不涉及泄露用户隐私的前提下,通过生成对抗网络模型对数据偏斜的参与者扩增少量数据,大幅提升非独立同分布数据划分下联邦学习算法的性能。实验结果表明,与当前主流的联邦算法相比,该算法在非独立同分布设置下的MNIST,CIFAR-10数据集上的预测精度分别提升了1.18%和14.6%,显示出了该算法对非独立同分布问题的有效性和实用性。 展开更多
关键词 联邦学习 隐私保护 生成对抗网络 差分隐私 数据增强
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部