-
题名基于结构增强的异质数据联邦学习模型正则优化算法
被引量:2
- 1
-
-
作者
张珉
梁美玉
薛哲
管泽礼
潘圳辉
赵泽华
-
机构
北京邮电大学计算机学院
北京邮电大学智能通信软件与多媒体北京市重点实验室
-
出处
《模式识别与人工智能》
EI
CSCD
北大核心
2023年第9期856-865,共10页
-
基金
国家自然科学基金项目(No.62192784,U22B2038,62172056,62272058)
中国人工智能学会-华为MindSpore学术奖励基金项目(No.CAAIXSJLJJ-2021-007B)资助。
-
文摘
联邦学习中由于不同客户端本地数据分布异质,在本地数据集上训练的客户端模型优化目标与全局模型不一致,导致出现客户端漂移现象,影响全局模型性能.为了解决非独立同分布数据带来的联邦学习模型性能下降甚至发散的问题,文中从本地模型的通用性角度出发,提出基于结构增强的异质数据联邦学习模型正则优化算法.在客户端利用数据分布异质的本地数据进行训练时,以结构化的方式采样子网络,并对客户端本地数据进行数据增强,使用不同的增强数据训练不同的子网络学习增强表示,得到泛化性较强的客户端网络模型,对抗本地数据异质带来的客户端漂移现象,在联邦聚合中得到性能更优的全局模型.在CIFAR-10、CIFAR-100、ImageNet-200数据集上的大量实验表明,文中算法性能较优.
-
关键词
联邦学习
非独立同分布(Non-IID)
数据异质性
客户端漂移
正则化
-
Keywords
Federated Learning
Non-Independently and Identically Distributed(Non-IID)
Data Heterogeneity
client drift
Regularization
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-
-
题名非独立同分布数据下的自正则化联邦学习优化方法
被引量:3
- 2
-
-
作者
蓝梦婕
蔡剑平
孙岚
-
机构
福州大学计算机与大数据学院
-
出处
《计算机应用》
CSCD
北大核心
2023年第7期2073-2081,共9页
-
文摘
联邦学习(FL)是一种新的分布式机器学习范式,它在保护设备数据隐私的同时打破数据壁垒,从而使各方能在不共享本地数据的前提下协作训练机器学习模型。然而,如何处理不同客户端的非独立同分布(Non-IID)数据仍是FL面临的一个巨大挑战,目前提出的一些解决方案没有利用好本地模型和全局模型的隐含关系,无法简单而高效地解决问题。针对FL中不同客户端数据的Non-IID问题,提出新的FL优化算法——联邦自正则(FedSR)和动态联邦自正则(Dyn-FedSR)。FedSR在每一轮训练过程中引入自正则化惩罚项动态修改本地损失函数,并通过构建本地模型和全局模型的关系来让本地模型靠近聚合丰富知识的全局模型,从而缓解Non-IID数据带来的客户端偏移问题;Dyn-FedSR则在FedSR基础上通过计算本地模型和全局模型的相似度来动态确定自正则项系数。对不同任务进行的大量实验分析表明,FedSR和Dyn-FedSR这两个算法在各种场景下的表现都明显优于联邦平均(FedAvg)算法、联邦近端(FedProx)优化算法和随机控制平均算法(SCAFFOLD)等FL算法,能够实现高效通信,正确率较高,且对不平衡数据和不确定的本地更新具有鲁棒性。
-
关键词
联邦学习
非独立同分布
客户端偏移
正则化
分布式机器学习
隐私保护
-
Keywords
Federated Learning(FL)
Non-Independent Identical Distribution(Non-IID)
client drift
regularization
distributed machine learning
privacy-preserving
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-