研究联邦学习中的隐私安全问题有利于能够帮助其在现实场景下的应用和发展。梯度泄露攻击(deep leakage from gradients,DLG)是联邦学习框架下利用梯度进行的攻击。有研究表明,随着批次的增大,梯度泄露算法将会频繁攻击失败。故针对这...研究联邦学习中的隐私安全问题有利于能够帮助其在现实场景下的应用和发展。梯度泄露攻击(deep leakage from gradients,DLG)是联邦学习框架下利用梯度进行的攻击。有研究表明,随着批次的增大,梯度泄露算法将会频繁攻击失败。故针对这个问题,通过不断研究梯度泄露算法的算法内容,从三个方面对其进行改进,分别是引入生成式网络、标签提取方法、正则项添加。实验结果表明,在批次数量大小等于1时,DLG算法和改进算法都可以恢复来自CIFAR100、LFW数据集和MNIST数据集中的数据,而当批次数量大小增加到4或8时,DLG算法无法恢复来自CIFAR100、LFW数据集中的数据,而改进算法可以继续恢复数据。这也就意味着,增加批次数量,无法抵御改进后的梯度泄露算法攻击。展开更多
文摘研究联邦学习中的隐私安全问题有利于能够帮助其在现实场景下的应用和发展。梯度泄露攻击(deep leakage from gradients,DLG)是联邦学习框架下利用梯度进行的攻击。有研究表明,随着批次的增大,梯度泄露算法将会频繁攻击失败。故针对这个问题,通过不断研究梯度泄露算法的算法内容,从三个方面对其进行改进,分别是引入生成式网络、标签提取方法、正则项添加。实验结果表明,在批次数量大小等于1时,DLG算法和改进算法都可以恢复来自CIFAR100、LFW数据集和MNIST数据集中的数据,而当批次数量大小增加到4或8时,DLG算法无法恢复来自CIFAR100、LFW数据集中的数据,而改进算法可以继续恢复数据。这也就意味着,增加批次数量,无法抵御改进后的梯度泄露算法攻击。