针对现有联邦学习同步更新模型不易实现,以及客户端数据分布差异较大时服务器集中融合客户端模型将带来负效应,导致全局模型性能较差的问题,提出了一种基于移动式服务器的联邦学习框架。首先在客户端使用梯度下降法,在服务器则基于模型...针对现有联邦学习同步更新模型不易实现,以及客户端数据分布差异较大时服务器集中融合客户端模型将带来负效应,导致全局模型性能较差的问题,提出了一种基于移动式服务器的联邦学习框架。首先在客户端使用梯度下降法,在服务器则基于模型知识迁移提出移动式联邦融合算法,实现移动异步更新。其次基于移动式服务器的联邦学习框架构建个性化联邦学习机制,解决非独立同分布(non independent and identically distributed,Non-IID)设置时客户端本地模型分类性能较低的问题。最后在3种基准数据集上进行仿真验证,结果表明,与现有方法对比,所提算法实现全局模型分类的精度及所需的通信轮数均优于基线方法。展开更多
文摘针对现有联邦学习同步更新模型不易实现,以及客户端数据分布差异较大时服务器集中融合客户端模型将带来负效应,导致全局模型性能较差的问题,提出了一种基于移动式服务器的联邦学习框架。首先在客户端使用梯度下降法,在服务器则基于模型知识迁移提出移动式联邦融合算法,实现移动异步更新。其次基于移动式服务器的联邦学习框架构建个性化联邦学习机制,解决非独立同分布(non independent and identically distributed,Non-IID)设置时客户端本地模型分类性能较低的问题。最后在3种基准数据集上进行仿真验证,结果表明,与现有方法对比,所提算法实现全局模型分类的精度及所需的通信轮数均优于基线方法。