期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
面向数据异构的联邦学习性能优化研究 被引量:2
1
作者 黄聿辰 赵彦超 +1 位作者 郝江山 陈兵 《小型微型计算机系统》 CSCD 北大核心 2024年第4期777-783,共7页
参与联邦学习的客户端只需在各自的本地数据集上训练本地模型,并在服务器上聚合全局模型.然而,数据异构会导致本地模型与全局最优模型收敛方向不一致,影响全局模型性能.现有工作主要集中在直接与全局模型做趋同,并未考虑全局模型合理性... 参与联邦学习的客户端只需在各自的本地数据集上训练本地模型,并在服务器上聚合全局模型.然而,数据异构会导致本地模型与全局最优模型收敛方向不一致,影响全局模型性能.现有工作主要集中在直接与全局模型做趋同,并未考虑全局模型合理性.本文研究了一种基于局部模型偏移的性能优化方案,本地训练过程中结合所有客户端模型关键参数,提高全局聚合模型可信度.具体来说,计算待训练模型与其他客户端模型参数差值,然后乘以其他客户端梯度,将结果作为正则项加入本地损失函数,从而抑制局部模型偏移.实验结果表明,该方案在MNIST,FMNIST,CIFAR上的图像识别正确率方面优于现有方法5个百分点以上. 展开更多
关键词 联邦学习 边缘计算 数据分布异构 模型偏移
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部