期刊文献+
共找到16篇文章
< 1 >
每页显示 20 50 100
Hierarchical Federated Learning Architectures for the Metaverse
1
作者 GU Cheng LI Baochun 《ZTE Communications》 2024年第2期39-48,共10页
In the context of edge computing environments in general and the metaverse in particular,federated learning(FL)has emerged as a distributed machine learning paradigm that allows multiple users to collaborate on traini... In the context of edge computing environments in general and the metaverse in particular,federated learning(FL)has emerged as a distributed machine learning paradigm that allows multiple users to collaborate on training a shared machine learning model locally,eliminating the need for uploading raw data to a central server.It is perhaps the only training paradigm that preserves the privacy of user data,which is essential for computing environments as personal as the metaverse.However,the original FL architecture proposed is not scalable to a large number of user devices in the metaverse community.To mitigate this problem,hierarchical federated learning(HFL)has been introduced as a general distributed learning paradigm,inspiring a number of research works.In this paper,we present several types of HFL architectures,with a special focus on the three-layer client-edge-cloud HFL architecture,which is most pertinent to the metaverse due to its delay-sensitive nature.We also examine works that take advantage of the natural layered organization of three-layer client-edge-cloud HFL to tackle some of the most challenging problems in FL within the metaverse.Finally,we outline some future research directions of HFL in the metaverse. 展开更多
关键词 federated learning hierarchical federated learning metaverse
下载PDF
Hierarchical Federated Learning: Architecture, Challenges, and Its Implementation in Vehicular Networks
2
作者 YAN Jintao CHEN Tan +3 位作者 XIE Bowen SUN Yuxuan ZHOU Sheng NIU Zhisheng 《ZTE Communications》 2023年第1期38-45,共8页
Federated learning(FL)is a distributed machine learning(ML)framework where several clients cooperatively train an ML model by exchanging the model parameters without directly sharing their local data.In FL,the limited... Federated learning(FL)is a distributed machine learning(ML)framework where several clients cooperatively train an ML model by exchanging the model parameters without directly sharing their local data.In FL,the limited number of participants for model aggregation and communication latency are two major bottlenecks.Hierarchical federated learning(HFL),with a cloud-edge-client hierarchy,can leverage the large coverage of cloud servers and the low transmission latency of edge servers.There are growing research interests in implementing FL in vehicular networks due to the requirements of timely ML training for intelligent vehicles.However,the limited number of participants in vehicular networks and vehicle mobility degrade the performance of FL training.In this context,HFL,which stands out for lower latency,wider coverage and more participants,is promising in vehicular networks.In this paper,we begin with the background and motivation of HFL and the feasibility of implementing HFL in vehicular networks.Then,the architecture of HFL is illustrated.Next,we clarify new issues in HFL and review several existing solutions.Furthermore,we introduce some typical use cases in vehicular networks as well as our initial efforts on implementing HFL in vehicular networks.Finally,we conclude with future research directions. 展开更多
关键词 hierarchical federated learning vehicular network MOBILITY convergence analysis
下载PDF
基于用户层次聚类的联邦学习优化方法
3
作者 谭玉玲 欧国成 +1 位作者 曹灿明 柴争议 《南京理工大学学报》 CAS CSCD 北大核心 2024年第4期469-478,488,共11页
联邦学习通过分布式机器学习训练出一种全局模型,该模型能够泛化所有的本地用户数据,以达到保护用户数据隐私的目的。由于用户间的行为、环境等不同,造成了数据异构问题,进而使得用户局部模型的性能往往远高于全局模型。针对上述问题,... 联邦学习通过分布式机器学习训练出一种全局模型,该模型能够泛化所有的本地用户数据,以达到保护用户数据隐私的目的。由于用户间的行为、环境等不同,造成了数据异构问题,进而使得用户局部模型的性能往往远高于全局模型。针对上述问题,该文提出了一种基于用户层次聚类的联邦学习方法。设计了一种联邦学习收敛评估的方法,用于判断全局模型收敛程度;当全局模型收敛时进行聚类用户操作,能够更加准确地找出相似程度较高的用户;通过余弦相似性的层次聚类方法,将具有相似性的用户进行聚类操作,从而减少因数据异构带来的影响。此外该文还采用较大深度的模型WideResNet提高用户本地训练精度。该文采用数据集EMNIST、CIFAR10,调整用户数据之间的角度,分别进行了两类用户和三类用户的聚类联邦学习实验。实验结果显示,与相关经典联邦学习算法FedAvg相比,采用聚类策略后,其训练准确度提高约10%。 展开更多
关键词 联邦学习 数据异构 层次聚类 余弦相似性 WideResNet
下载PDF
基于异步分层联邦学习的数据异质性处理方法研究
4
作者 郭昌昊 唐湘云 翁彧 《计算机工程与科学》 CSCD 北大核心 2024年第7期1237-1244,共8页
在物联网设备遍布的时代,时刻都在产生大量数据,数据分布和数据量各不相同,因此数据异质性普遍存在。针对物联网环境中智能设备的联邦学习挑战,传统联邦学习的同步机制解决数据异质性(NON-IID)问题并不理想,且面临着单点故障和维护全局... 在物联网设备遍布的时代,时刻都在产生大量数据,数据分布和数据量各不相同,因此数据异质性普遍存在。针对物联网环境中智能设备的联邦学习挑战,传统联邦学习的同步机制解决数据异质性(NON-IID)问题并不理想,且面临着单点故障和维护全局时钟的复杂性问题,而异步机制则可能带来额外的通信开销和NON-IID数据分布导致的过时性问题。分层联邦学习结合异步机制在应对数据异质性的问题时更加灵活,为此,提出了一种基于分层联邦学习的异步分层联邦学习方法。首先,使用BIRCH算法分析物联网中各节点的数据分布并进行簇的划分;然后,对簇中的数据进行拆分与验证,目的是找到数据质量高的节点,然后将数据质量高的簇中的节点打散,重组到其他数据质量低的簇中,形成新的簇;最后,进行簇内聚合和全局聚合的两阶段模型训练。此外,基于MNIST数据集,对提出的方法进行了评估。结果表明,与经典方法相比,所提方法在NON-IID数据集上收敛速度提高,而且在模型精度上提高了15%以上。 展开更多
关键词 物联网 联邦学习 异步联邦学习 分层联邦学习 数据异质性 数据分布
下载PDF
基于分层聚类的个性化联邦学习隐私保护框架
5
作者 郭倩 赵津 过弋 《信息网络安全》 CSCD 北大核心 2024年第8期1196-1209,共14页
联邦学习作为一种新兴的隐私保护分布式机器学习框架,利用密码原语有效地解决了隐私泄露问题,如何在分布式环境中防止投毒攻击已成为联邦学习的研究热点。目前的研究工作大部分依赖于数据独立同分布情况,并使用明文进行恶意梯度识别,无... 联邦学习作为一种新兴的隐私保护分布式机器学习框架,利用密码原语有效地解决了隐私泄露问题,如何在分布式环境中防止投毒攻击已成为联邦学习的研究热点。目前的研究工作大部分依赖于数据独立同分布情况,并使用明文进行恶意梯度识别,无法处理数据异构带来的挑战。为了解决上述问题,文章提出一个基于分层聚类的个性化联邦学习隐私保护框架。该框架基于坐标感知的中位数算法对梯度进行加密,并采用安全余弦相似度方案识别恶意梯度,通过层次聚合方法增强模型在独立同分布和非独立同分布场景下的鲁棒性。在MNIST、CIFAR-10和Fashion-MNIST三个公开数据集上的实验结果表明,该模型具有较强的隐私保护能力。与FedAVG、PPeFL、中位数、裁剪均值和聚类等算法相比,该模型准确率分别提升了14.90%、9.59%、29.50%、26.57%和23.19%。 展开更多
关键词 联邦学习 层次聚合 同态加密 隐私保护
下载PDF
基于学习博弈和契约论的分层联邦学习隐私保护激励机制
6
作者 宋彪 薛涛 刘俊华 《计算机系统应用》 2024年第7期26-38,共13页
分层联邦学习(hierarchical federated learning,HFL)旨在通过多层架构的协作学习,同时保护隐私和优化模型性能.但其效果需依赖于针对参与各方的有效激励机制及应对信息不对称的策略.为了解决上述问题,本文提出一种保护终端设备、边缘... 分层联邦学习(hierarchical federated learning,HFL)旨在通过多层架构的协作学习,同时保护隐私和优化模型性能.但其效果需依赖于针对参与各方的有效激励机制及应对信息不对称的策略.为了解决上述问题,本文提出一种保护终端设备、边缘服务器及云服务器隐私的分层激励机制.在边端层,边缘服务器作为中介应用多维合约理论设计不同类型的契约项,促使终端设备在不泄露数据采集、模型训练以及模型传输成本的情况下,使用本地数据参与HFL.在云边层,云服务器与边缘服务器间关于单位数据奖励和数据量的关系通过Stackelberg博弈进行建模,在不泄露边缘服务器单位利润的情况下,进一步将其转化为马尔可夫过程,并采用保护隐私的多智能体深度强化学习(multi-agent deep reinforcement learning,MADRL)方法逐渐接近斯塔克伯格均衡(Stackelberg equilibrium,SE).实验结果表明,本文提出的分层激励机制在性能上优于基线方法,云服务器的收益提升了接近11%,单位成本获取增益提升接近18倍. 展开更多
关键词 分层联邦学习 博弈论 多维契约理论 多智能体深度强化学习 激励机制
下载PDF
兼顾通信效率与效用的自适应高斯差分隐私个性化联邦学习
7
作者 李敏 肖迪 陈律君 《计算机学报》 EI CAS CSCD 北大核心 2024年第4期924-946,共23页
近年来,由于联邦学习中的通信参数(或梯度)会给参与方本地敏感数据带来重大的隐私泄露风险,联邦学习隐私保护引起了广泛的关注.然而,梯度交换频繁、数据分布异构、参与方本地硬件资源受限等一系列不可避免的因素给联邦学习隐私保护增加... 近年来,由于联邦学习中的通信参数(或梯度)会给参与方本地敏感数据带来重大的隐私泄露风险,联邦学习隐私保护引起了广泛的关注.然而,梯度交换频繁、数据分布异构、参与方本地硬件资源受限等一系列不可避免的因素给联邦学习隐私保护增加了挑战难度.为了以一种统一的方式同时有效地解决数据隐私、模型效用、通信效率以及参与方数据非独立同分布等四个方面的问题,本文提出了一种新的兼顾通信效率与效用的自适应高斯差分隐私个性化联邦学习(Communication-efficient and Utility-aware Adaptive Gaussian Differential Privacy for Personalized Federated Learning,CUAG-PFL)方法.具体而言,本文提出一种动态层级压缩模型梯度的方案先为通信模型梯度每一层动态生成特定的压缩率,再根据压缩率构造对应的确定性二进制测量矩阵去除梯度冗余信息.随后,通过同时优化裁剪阈值、敏感度和噪声尺度等隐私相关参数来对压缩的模型梯度执行自适应高斯差分隐私操作.此外,本文对CUAG-PFL进行了严格的隐私分析.为了验证CUAG-PFL在隐私、效用、通信效率以及个性化四个方面的优势,本文在CIFAR-10和CIFAR-100两个真实联邦数据集上进行了大量实验模拟、对比和分析,结果表明CUAG-PFL能够提高参与方本地数据隐私性、通信效率和模型效用,同时解决了数据非独立同分布的问题.特别地,即使在隐私预算仅为0.92且上行通信量减少68.6%时,CUAG-PFL因隐私保护和梯度压缩所引起的模型效用损失仅为1.66%. 展开更多
关键词 自适应高斯差分隐私 隐私-效用权衡 动态层级压缩 通信高效 个性化联邦学习 隐私计算
下载PDF
非独立同分布场景下的联邦学习优化方法
8
作者 宋华伟 李升起 +1 位作者 万方杰 卫玉萍 《计算机工程》 CAS CSCD 北大核心 2024年第3期166-172,共7页
联邦学习能够在不泄露数据隐私的情况下合作训练全局模型,但这种协作式的训练方式在现实环境下面临参与方数据非独立同分布(Non-IID)的挑战:模型收敛慢、精度降低的问题。许多现有的联邦学习方法仅从全局模型聚合和本地客户端更新中的... 联邦学习能够在不泄露数据隐私的情况下合作训练全局模型,但这种协作式的训练方式在现实环境下面临参与方数据非独立同分布(Non-IID)的挑战:模型收敛慢、精度降低的问题。许多现有的联邦学习方法仅从全局模型聚合和本地客户端更新中的一个角度进行改进,难免会引发另一角度带来的影响,降低全局模型的质量。提出一种分层持续学习的联邦学习优化方法(FedMas)。FedMas基于分层融合的思想,首先,采用客户端分层策略,利用DBSCAN算法将相似数据分布的客户端划分到不同的层中,每次仅挑选某个层的部分客户端进行训练,避免服务器端全局模型聚合时因数据分布不同产生的权重分歧现象;进一步,由于每个层的数据分布不同,客户端在局部更新时结合持续学习灾难性遗忘的解决方案,有效地融合不同层客户端数据间的差异性,从而保证全局模型的性能。在MNIST和CIFAR-10标准数据集上的实验结果表明,FedMas与FedProx、Scaffold和FedCurv联邦学习算法相比,全局模型测试准确率平均提高0.3~2.2个百分点。 展开更多
关键词 联邦学习 持续学习 数据异构 聚类 分层优化 数据分布
下载PDF
异构物联网下资源高效的分层协同联邦学习方法
9
作者 王汝言 陈伟 +2 位作者 张普宁 吴大鹏 杨志刚 《电子与信息学报》 EI CSCD 北大核心 2023年第8期2847-2855,共9页
物联网(IoT)设备资源存在高度异构性,严重影响联邦学习(FL)的训练时间和精度。已有研究未充分考虑物联网设备资源的异构性,且缺乏异构设备间协同训练机制的设计,导致训练效果有限且设备的资源利用率较低。为此,该文提出资源高效的分层... 物联网(IoT)设备资源存在高度异构性,严重影响联邦学习(FL)的训练时间和精度。已有研究未充分考虑物联网设备资源的异构性,且缺乏异构设备间协同训练机制的设计,导致训练效果有限且设备的资源利用率较低。为此,该文提出资源高效的分层协同联邦学习方法(HCFL),设计了端边云分层混合聚合机制,考虑边缘服务器的差异化参数聚合频率,提出自适应异步加权聚合方法,提高模型参数聚合效率。提出资源重均衡的客户端选择算法,考虑模型精度与数据分布特征动态选取客户端,缓解资源异构性对联邦学习性能的影响。设计自组织联邦协同训练算法,充分利用空闲物联网设备资源加速联邦学习训练进程。仿真结果表明,在不同资源异构状态下,与基线方法相比,模型训练时间平均降低15%,模型精度平均提高6%,设备平均资源利用率提高52%。 展开更多
关键词 异构物联网 边缘智能 分层联邦学习 客户端选择
下载PDF
基于主从博弈的分层联邦学习激励机制研究 被引量:3
10
作者 贾云健 黄宇 +2 位作者 梁靓 万杨亮 周继华 《电子与信息学报》 EI CSCD 北大核心 2023年第4期1366-1373,共8页
为了优化分层联邦学习(FL)全局模型的训练时延,针对实际场景中终端设备存在自私性的问题,该文提出一种基于博弈论的激励机制。在激励预算有限的条件下,得到了终端设备和边缘服务器之间的均衡解和最小的边缘模型训练时延。考虑终端设备... 为了优化分层联邦学习(FL)全局模型的训练时延,针对实际场景中终端设备存在自私性的问题,该文提出一种基于博弈论的激励机制。在激励预算有限的条件下,得到了终端设备和边缘服务器之间的均衡解和最小的边缘模型训练时延。考虑终端设备数量不同,设计了基于主从博弈的可变激励训练加速算法,使得一次全局模型训练时延达到最小。仿真结果显示,所提出的算法能够有效降低终端设备自私性带来的影响,提高分层联邦学习全局模型的训练速度。 展开更多
关键词 分层联邦学习 博弈论 激励机制
下载PDF
基于多领导者Stackelberg博弈的分层联邦学习激励机制设计 被引量:1
11
作者 耿方兴 李卓 陈昕 《计算机应用》 CSCD 北大核心 2023年第11期3551-3558,共8页
分层联邦学习中隐私安全与资源消耗等问题的存在降低了参与者的积极性。为鼓励足够多的参与者积极参与学习任务,并针对多移动设备与多边缘服务器之间的决策问题,提出基于多领导者Stackelberg博弈的激励机制。首先,通过量化移动设备的成... 分层联邦学习中隐私安全与资源消耗等问题的存在降低了参与者的积极性。为鼓励足够多的参与者积极参与学习任务,并针对多移动设备与多边缘服务器之间的决策问题,提出基于多领导者Stackelberg博弈的激励机制。首先,通过量化移动设备的成本效用与边缘服务器的支付报酬,构建效用函数并定义最优化问题;其次,将移动设备之间的交互建模为演化博弈,将边缘服务器之间的交互建模为非合作博弈。为求解最优边缘服务器选择和定价策略,提出多轮迭代边缘服务器选择算法(MIES)和梯度迭代定价算法(GIPA),前者用于求解移动设备之间的演化博弈均衡解,后者用于求解边缘服务器之间的定价竞争问题。实验结果表明,所提算法GIPA与最优定价预测策略(OPPS)、历史最优定价策略(HOPS)和随机定价策略(RPS)相比,可使边缘服务器的平均效用分别提高4.06%、10.08%和31.39%。 展开更多
关键词 分层联邦学习 激励机制 定价策略 多领导者Stackelberg博弈 演化博弈
下载PDF
基于分层联邦学习的无人机小基站RAN切片方法
12
作者 殷珉 沈航 +1 位作者 王天荆 白光伟 《电子学报》 EI CAS CSCD 北大核心 2023年第7期1774-1780,共7页
针对多架无人机共同为地面用户提供差异化服务的场景,本文提出一种基于分层联邦学习的动态RAN(Radio Access Network)切片框架,目的是提升切片性能隔离效果、减少协同训练过程的通信代价.考虑到无人机动态部署和数据不足等特点,本文通... 针对多架无人机共同为地面用户提供差异化服务的场景,本文提出一种基于分层联邦学习的动态RAN(Radio Access Network)切片框架,目的是提升切片性能隔离效果、减少协同训练过程的通信代价.考虑到无人机动态部署和数据不足等特点,本文通过数据增广促进本地模型训练.为了使得距离地面基站较远的无人机有更多机会参与联邦学习并降低通信代价,本文根据位置和数据分布信息设计支持边缘模型聚合的无人机分簇策略.在此基础上,本文探索基于注意力机制的边缘和全局模型聚合方案,以增强全局模型的泛化能力.仿真结果表明,与联邦平均和分布式LSTM(Long Short-Term Memory)相比,所提方案在切片性能隔离的时长占比上分别有8.4%和16.5%的提升,并降低了无人机协同训练的通信代价. 展开更多
关键词 无人机小基站 RAN切片 分层联邦学习 边缘模型聚合 注意力机制
下载PDF
分布式作战条件下陆战场智能信息系统设计
13
作者 王军 张雄涛 +2 位作者 赵兴利 钟正仪 朱晓敏 《指挥与控制学报》 CSCD 2023年第2期192-203,共12页
聚焦陆战场信息系统设计问题,结合分布式计算最新成果,基于“云网端”融合理念,构建了一套适用于分布式战场节点和智能需求的信息系统架构.针对所构建架构中,智能应用和智能性提升的关键需求,综合分布式陆战场节点资源受限、任务多样等... 聚焦陆战场信息系统设计问题,结合分布式计算最新成果,基于“云网端”融合理念,构建了一套适用于分布式战场节点和智能需求的信息系统架构.针对所构建架构中,智能应用和智能性提升的关键需求,综合分布式陆战场节点资源受限、任务多样等特点,在分层联邦学习基础上,依据资源状况进行自适应调整,提供资源开销和智能提升相均衡的使用途径.经实验验证,该架构和方法效果良好,更能适应分布式条件下陆战场节点智能性需求。 展开更多
关键词 分布作战 智能信息系统 “云网端”融合 分层联邦学习
下载PDF
基于在线双边拍卖的分层联邦学习激励机制 被引量:4
14
作者 杜辉 李卓 陈昕 《计算机科学》 CSCD 北大核心 2022年第3期23-30,共8页
在分层联邦学习中,能量受限的移动设备参与模型训练会消耗自身资源。为了降低移动设备的能耗,文中在不超过分层联邦学习的最大容忍时间下,提出了移动设备能耗之和最小化问题。不同训练轮次的边缘服务器能够选择不同的移动设备,移动设备... 在分层联邦学习中,能量受限的移动设备参与模型训练会消耗自身资源。为了降低移动设备的能耗,文中在不超过分层联邦学习的最大容忍时间下,提出了移动设备能耗之和最小化问题。不同训练轮次的边缘服务器能够选择不同的移动设备,移动设备也能够为不同的边缘服务器并发训练模型,因此文中基于在线双边拍卖机制提出了ODAM-DS算法。基于最优停止理论,支持边缘服务器在合适的时刻选择移动设备,使得移动设备的平均能耗最小,然后对提出的在线双边拍卖机制进行理论分析,证明其满足激励相容性、个体理性、弱预算均衡约束等特性。模拟实验的结果证明,ODAM-DS算法产生的能耗比已有的HFEL算法平均降低了19.04%。 展开更多
关键词 分层联邦学习 能耗最小化 在线双边拍卖 最优停止理论 激励机制设计
下载PDF
面向分层联邦学习的传输优化研究 被引量:1
15
作者 邹赛兰 李卓 陈昕 《计算机科学》 CSCD 北大核心 2022年第12期5-16,共12页
与传统机器学习相比,联邦学习有效解决了用户数据隐私和安全保护等问题,但是海量节点与云服务器间进行大量模型交换,会产生较高的通信成本,因此基于云-边-端的分层联邦学习受到了越来越多的重视。在分层联邦学习中,移动节点之间可采用D2... 与传统机器学习相比,联邦学习有效解决了用户数据隐私和安全保护等问题,但是海量节点与云服务器间进行大量模型交换,会产生较高的通信成本,因此基于云-边-端的分层联邦学习受到了越来越多的重视。在分层联邦学习中,移动节点之间可采用D2D、机会通信等方式进行模型协作训练,边缘服务器执行局部模型聚合,云服务器执行全局模型聚合。为了提升模型的收敛速率,研究人员对面向分层联邦学习的网络传输优化技术展开了研究。文中介绍了分层联邦学习的概念及算法原理,总结了引起网络通信开销的关键挑战,归纳分析了选择合适节点、增强本地计算、减少本地模型更新上传数、压缩模型更新、分散训练和面向参数聚合传输这6种网络传输优化方法。最后,总结并探讨了未来的研究方向。 展开更多
关键词 分层联邦学习 传输优化 通信开销 节点选择 模型压缩
下载PDF
分层边缘联邦学习:一种基于契约论的双层激励机制 被引量:1
16
作者 叶东东 《工业控制计算机》 2022年第1期104-105,108,共3页
联邦学习(Federated Learning,FL)是一种分布式神经网络训练的方法,它使多个终端协作训练一个共享的神经网络模型,同时保证训练数据存在于终端上。然而,FL涉及数千个异构分布式终端设备。在这种情况下,低效的通信是FL的关键瓶颈。为了... 联邦学习(Federated Learning,FL)是一种分布式神经网络训练的方法,它使多个终端协作训练一个共享的神经网络模型,同时保证训练数据存在于终端上。然而,FL涉及数千个异构分布式终端设备。在这种情况下,低效的通信是FL的关键瓶颈。为了解决上述问题,一种融合边缘计算的分层联邦学习(Hierarchical FL,HFL)框架被提出来了。尽管HFL有上述的巨大好处,但是激励机制设计的挑战在HFL框架中尚未得到解决。因此,提出了一种基于契约论的双层激励机制方法;然后,基于CIFAR10数据集的实验结果验证了该激励机制的有效性。 展开更多
关键词 分簇 联邦学习 契约论 激励机制
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部