反后门学习方法(anti-backdoor learning,ABL)在利用中毒数据集进行模型训练过程中能实时检测并抑制后门生成,最终得到良性模型。但反后门学习方法存在后门样本和良性样本无法有效隔离、后门消除效率不高的问题。为此,提出遗忘学习前置...反后门学习方法(anti-backdoor learning,ABL)在利用中毒数据集进行模型训练过程中能实时检测并抑制后门生成,最终得到良性模型。但反后门学习方法存在后门样本和良性样本无法有效隔离、后门消除效率不高的问题。为此,提出遗忘学习前置的反后门学习方法(anti-backdoor learning method based on preposed unlearning,ABLPU),在隔离阶段对训练样本增加提纯操作,达到有效隔离良性样本的目标,在消除阶段采用后门遗忘-模型再训练的范式,并引入遗忘系数,实现后门的高效消除。在CIFAR-10数据集上针对后门攻击方法BadNets,遗忘学习前置的反后门学习方法较反后门学习方法(基线方法)良性准确率提高1.21个百分点,攻击成功率下降1.38个百分点。展开更多
文摘反后门学习方法(anti-backdoor learning,ABL)在利用中毒数据集进行模型训练过程中能实时检测并抑制后门生成,最终得到良性模型。但反后门学习方法存在后门样本和良性样本无法有效隔离、后门消除效率不高的问题。为此,提出遗忘学习前置的反后门学习方法(anti-backdoor learning method based on preposed unlearning,ABLPU),在隔离阶段对训练样本增加提纯操作,达到有效隔离良性样本的目标,在消除阶段采用后门遗忘-模型再训练的范式,并引入遗忘系数,实现后门的高效消除。在CIFAR-10数据集上针对后门攻击方法BadNets,遗忘学习前置的反后门学习方法较反后门学习方法(基线方法)良性准确率提高1.21个百分点,攻击成功率下降1.38个百分点。