-
题名面向数据异构的联邦学习性能优化研究
被引量:2
- 1
-
-
作者
黄聿辰
赵彦超
郝江山
陈兵
-
机构
南京航空航天大学计算机科学与技术学院
-
出处
《小型微型计算机系统》
CSCD
北大核心
2024年第4期777-783,共7页
-
基金
国家重点研发计划项目(2019YFB2102000)资助
国家自然科学基金面上项目(62172215)资助
+1 种基金
江苏省自然科学基金优秀青年基金项目(BK20200067)资助
国家自然科学基金A3国际项目(62061146002)资助.
-
文摘
参与联邦学习的客户端只需在各自的本地数据集上训练本地模型,并在服务器上聚合全局模型.然而,数据异构会导致本地模型与全局最优模型收敛方向不一致,影响全局模型性能.现有工作主要集中在直接与全局模型做趋同,并未考虑全局模型合理性.本文研究了一种基于局部模型偏移的性能优化方案,本地训练过程中结合所有客户端模型关键参数,提高全局聚合模型可信度.具体来说,计算待训练模型与其他客户端模型参数差值,然后乘以其他客户端梯度,将结果作为正则项加入本地损失函数,从而抑制局部模型偏移.实验结果表明,该方案在MNIST,FMNIST,CIFAR上的图像识别正确率方面优于现有方法5个百分点以上.
-
关键词
联邦学习
边缘计算
数据分布异构
模型偏移
-
Keywords
federal learning
edge computing
heterogeneous data distribution
model offset
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-