期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
基于粒子群优化的对抗样本生成算法 被引量:8
1
作者 钱亚冠 卢红波 +5 位作者 纪守领 周武杰 吴淑慧 云本胜 陶祥兴 雷景生 《电子与信息学报》 EI CSCD 北大核心 2019年第7期1658-1665,共8页
随着机器学习被广泛的应用,其安全脆弱性问题也突显出来。该文提出一种基于粒子群优化(PSO)的对抗样本生成算法,揭示支持向量机(SVM)可能存在的安全隐患。主要采用的攻击策略是篡改测试样本,生成对抗样本,达到欺骗SVM分类器,使其性能失... 随着机器学习被广泛的应用,其安全脆弱性问题也突显出来。该文提出一种基于粒子群优化(PSO)的对抗样本生成算法,揭示支持向量机(SVM)可能存在的安全隐患。主要采用的攻击策略是篡改测试样本,生成对抗样本,达到欺骗SVM分类器,使其性能失效的目的。为此,结合SVM在高维特征空间的线性可分的特点,采用PSO方法寻找攻击显著性特征,再利用均分方法逆映射回原始输入空间,构建对抗样本。该方法充分利用了特征空间上线性模型上易寻优的特点,同时又利用了原始输入空间篡改数据的可解释性优点,使原本难解的优化问题得到实现。该文对2个公开数据集进行实验,实验结果表明,该方法通过不超过7%的小扰动量生成的对抗样本均能使SVM分类器失效,由此证明了SVM存在明显的安全脆弱性。 展开更多
关键词 机器学习 支持向量机 探测攻击 显著性扰动 对抗样本
下载PDF
基于卷积神经网络的污点攻击与防御
2
作者 胡慧敏 钱亚冠 +1 位作者 雷景生 马丹峰 《浙江科技学院学报》 CAS 2020年第1期38-43,63,共7页
深度神经网络易受对抗样例的攻击,该攻击主要通过对图像做细微的修改而使卷积神经网络识别出错。因此,为了模拟实际生活中车牌上的污点攻击,只对车牌图像添加局部扰动。首先使用l 1范数作为优化算法得到车牌图像中易被字符分类器识别错... 深度神经网络易受对抗样例的攻击,该攻击主要通过对图像做细微的修改而使卷积神经网络识别出错。因此,为了模拟实际生活中车牌上的污点攻击,只对车牌图像添加局部扰动。首先使用l 1范数作为优化算法得到车牌图像中易被字符分类器识别错误的位置,然后继续在该图像中产生特定的扰动,最后将扰动加入到易被攻击错误的位置中。试验结果表明该攻击方法具有90%的成功率,对车牌的字符识别造成了一定的影响。同时以对抗训练作为防御策略,取得了98%的成功率。 展开更多
关键词 对抗攻击 车牌识别 污点攻击 对抗训练
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部