期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
2
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于粒子群优化的对抗样本生成算法
被引量:
8
1
作者
钱亚冠
卢红波
+5 位作者
纪守领
周武杰
吴淑慧
云本胜
陶祥兴
雷景生
《电子与信息学报》
EI
CSCD
北大核心
2019年第7期1658-1665,共8页
随着机器学习被广泛的应用,其安全脆弱性问题也突显出来。该文提出一种基于粒子群优化(PSO)的对抗样本生成算法,揭示支持向量机(SVM)可能存在的安全隐患。主要采用的攻击策略是篡改测试样本,生成对抗样本,达到欺骗SVM分类器,使其性能失...
随着机器学习被广泛的应用,其安全脆弱性问题也突显出来。该文提出一种基于粒子群优化(PSO)的对抗样本生成算法,揭示支持向量机(SVM)可能存在的安全隐患。主要采用的攻击策略是篡改测试样本,生成对抗样本,达到欺骗SVM分类器,使其性能失效的目的。为此,结合SVM在高维特征空间的线性可分的特点,采用PSO方法寻找攻击显著性特征,再利用均分方法逆映射回原始输入空间,构建对抗样本。该方法充分利用了特征空间上线性模型上易寻优的特点,同时又利用了原始输入空间篡改数据的可解释性优点,使原本难解的优化问题得到实现。该文对2个公开数据集进行实验,实验结果表明,该方法通过不超过7%的小扰动量生成的对抗样本均能使SVM分类器失效,由此证明了SVM存在明显的安全脆弱性。
展开更多
关键词
机器学习
支持向量机
探测攻击
显著性扰动
对抗样本
下载PDF
职称材料
基于卷积神经网络的污点攻击与防御
2
作者
胡慧敏
钱亚冠
+1 位作者
雷景生
马丹峰
《浙江科技学院学报》
CAS
2020年第1期38-43,63,共7页
深度神经网络易受对抗样例的攻击,该攻击主要通过对图像做细微的修改而使卷积神经网络识别出错。因此,为了模拟实际生活中车牌上的污点攻击,只对车牌图像添加局部扰动。首先使用l 1范数作为优化算法得到车牌图像中易被字符分类器识别错...
深度神经网络易受对抗样例的攻击,该攻击主要通过对图像做细微的修改而使卷积神经网络识别出错。因此,为了模拟实际生活中车牌上的污点攻击,只对车牌图像添加局部扰动。首先使用l 1范数作为优化算法得到车牌图像中易被字符分类器识别错误的位置,然后继续在该图像中产生特定的扰动,最后将扰动加入到易被攻击错误的位置中。试验结果表明该攻击方法具有90%的成功率,对车牌的字符识别造成了一定的影响。同时以对抗训练作为防御策略,取得了98%的成功率。
展开更多
关键词
对抗攻击
车牌识别
污点攻击
对抗训练
下载PDF
职称材料
题名
基于粒子群优化的对抗样本生成算法
被引量:
8
1
作者
钱亚冠
卢红波
纪守领
周武杰
吴淑慧
云本胜
陶祥兴
雷景生
机构
浙江
科技
学院
理
学院
/大数据
学院
浙江
大学计算机
学院
浙江科技学院电子与信息工程学院
出处
《电子与信息学报》
EI
CSCD
北大核心
2019年第7期1658-1665,共8页
基金
浙江省自然科学基金(LY17F020011,LY18F020012)
浙江省公益技术应用研究项目(LGG19F030001)
国家自然科学基金(61772466,61672337,11771399)~~
文摘
随着机器学习被广泛的应用,其安全脆弱性问题也突显出来。该文提出一种基于粒子群优化(PSO)的对抗样本生成算法,揭示支持向量机(SVM)可能存在的安全隐患。主要采用的攻击策略是篡改测试样本,生成对抗样本,达到欺骗SVM分类器,使其性能失效的目的。为此,结合SVM在高维特征空间的线性可分的特点,采用PSO方法寻找攻击显著性特征,再利用均分方法逆映射回原始输入空间,构建对抗样本。该方法充分利用了特征空间上线性模型上易寻优的特点,同时又利用了原始输入空间篡改数据的可解释性优点,使原本难解的优化问题得到实现。该文对2个公开数据集进行实验,实验结果表明,该方法通过不超过7%的小扰动量生成的对抗样本均能使SVM分类器失效,由此证明了SVM存在明显的安全脆弱性。
关键词
机器学习
支持向量机
探测攻击
显著性扰动
对抗样本
Keywords
Machine learning
Support Vector Machine(SVM)
Exploring attacks
Salient perpetuation
Adversarial example
分类号
TP309.2 [自动化与计算机技术—计算机系统结构]
下载PDF
职称材料
题名
基于卷积神经网络的污点攻击与防御
2
作者
胡慧敏
钱亚冠
雷景生
马丹峰
机构
浙江
科技
学院
曙光大数据
学院
浙江科技学院电子与信息工程学院
出处
《浙江科技学院学报》
CAS
2020年第1期38-43,63,共7页
基金
浙江省自然科学基金项目(LY17F020011)
浙江省公益技术应用研究项目(LGG19F030001)
国家自然科学基金项目(61572163)
文摘
深度神经网络易受对抗样例的攻击,该攻击主要通过对图像做细微的修改而使卷积神经网络识别出错。因此,为了模拟实际生活中车牌上的污点攻击,只对车牌图像添加局部扰动。首先使用l 1范数作为优化算法得到车牌图像中易被字符分类器识别错误的位置,然后继续在该图像中产生特定的扰动,最后将扰动加入到易被攻击错误的位置中。试验结果表明该攻击方法具有90%的成功率,对车牌的字符识别造成了一定的影响。同时以对抗训练作为防御策略,取得了98%的成功率。
关键词
对抗攻击
车牌识别
污点攻击
对抗训练
Keywords
adversarial attacks
license plate recognition
stain attacks
adversarial training
分类号
TP391.41 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于粒子群优化的对抗样本生成算法
钱亚冠
卢红波
纪守领
周武杰
吴淑慧
云本胜
陶祥兴
雷景生
《电子与信息学报》
EI
CSCD
北大核心
2019
8
下载PDF
职称材料
2
基于卷积神经网络的污点攻击与防御
胡慧敏
钱亚冠
雷景生
马丹峰
《浙江科技学院学报》
CAS
2020
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部