深度神经网络在许多经典机器学习问题的解决上表现出了极好的性能。然而,却容易受到对抗样本的攻击,使得神经网络对输入的样本产生错误的分类结果。为此,我们提出一种基于防御蒸馏的神经网络训练方法Pre-DD(Pre-Distillation as a Defen...深度神经网络在许多经典机器学习问题的解决上表现出了极好的性能。然而,却容易受到对抗样本的攻击,使得神经网络对输入的样本产生错误的分类结果。为此,我们提出一种基于防御蒸馏的神经网络训练方法Pre-DD(Pre-Distillation as a Defense),将样本与其指示向量输入基础神经网络中产生概率向量,再将样本进行特征压缩,并与其概率向量训练目标模型。实验表明,随着学习率的提高,提出的方法比原始防御蒸馏对干净样本的识别率变现更加稳定,并且提出的方法在FGSM,PGD攻击下产生的对抗样本分类正确率上都有所提高。展开更多
文摘深度神经网络在许多经典机器学习问题的解决上表现出了极好的性能。然而,却容易受到对抗样本的攻击,使得神经网络对输入的样本产生错误的分类结果。为此,我们提出一种基于防御蒸馏的神经网络训练方法Pre-DD(Pre-Distillation as a Defense),将样本与其指示向量输入基础神经网络中产生概率向量,再将样本进行特征压缩,并与其概率向量训练目标模型。实验表明,随着学习率的提高,提出的方法比原始防御蒸馏对干净样本的识别率变现更加稳定,并且提出的方法在FGSM,PGD攻击下产生的对抗样本分类正确率上都有所提高。