期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
基于机器学习算法的成员推断攻击研究 被引量:1
1
作者 吴宗航 尚家秀 +1 位作者 史腾飞 杨冲 《信息技术与信息化》 2023年第3期213-216,共4页
针对成员推断攻击中构建模拟模型所需的训练数据的合成质量提升问题,提出使用一种基于爬山算法改进的模拟退火算法进行数据合成。首先,通过模拟退火算法以比较快的速度找到问题的近似最优解,从而可以合成比较高质量的数据;然后,训练数... 针对成员推断攻击中构建模拟模型所需的训练数据的合成质量提升问题,提出使用一种基于爬山算法改进的模拟退火算法进行数据合成。首先,通过模拟退火算法以比较快的速度找到问题的近似最优解,从而可以合成比较高质量的数据;然后,训练数据集构建模拟目标模型,并将其输出信息进行综合,以训练二分类器作为最终攻击模式;最后,以决策树、随机森林、卷积神经网络算法为例,比较在黑盒模型中,基于不同机器学习算法在三种不同数据集下的成员推断攻击的性能。结果表明:所提方法可以提升训练数据的合成质量,通过观察攻击精度的变化,卷积神经网络下成员推断攻击性能最优。 展开更多
关键词 决策树 随机森林 卷积神经网络 黑盒模型 成员推断攻击
下载PDF
黑盒机器学习模型的成员推断攻击研究 被引量:1
2
作者 刘高扬 李雨桐 +2 位作者 万博睿 王琛 彭凯 《信息安全学报》 CSCD 2021年第3期1-15,共15页
近年来,机器学习技术飞速发展,并在自然语言处理、图像识别、搜索推荐等领域得到了广泛的应用。然而,现有大量开放部署的机器学习模型在模型安全与数据隐私方面面临着严峻的挑战。本文重点研究黑盒机器学习模型面临的成员推断攻击问题,... 近年来,机器学习技术飞速发展,并在自然语言处理、图像识别、搜索推荐等领域得到了广泛的应用。然而,现有大量开放部署的机器学习模型在模型安全与数据隐私方面面临着严峻的挑战。本文重点研究黑盒机器学习模型面临的成员推断攻击问题,即给定一条数据记录以及某个机器学习模型的黑盒预测接口,判断此条数据记录是否属于给定模型的训练数据集。为此,本文设计并实现了一种基于变分自编码器的数据合成算法,用于生成与给定模型的原始训练数据分布相近的合成数据;并在此基础上提出了基于生成对抗网络的模拟模型构建算法,利用合成数据训练得到与给定模型具有相似预测能力的机器学习模型。相较于现有的成员推断攻击工作,本文所提出的推断攻击无需目标模型及其训练数据的先验知识,在仅有目标模型黑盒预测接口的条件下,可获得更加准确的攻击结果。通过本地模型和线上机器学习即服务平台BigML的实验结果证明,所提的数据合成算法可以得到高质量的合成数据,模拟模型构建算法可以在更加严苛的条件下模拟给定模型的预测能力。在没有目标模型及其训练数据的先验知识条件下,本文所提的成员推断攻击在针对多种目标模型进行攻击时,推断准确率最高可达74%,推断精确率可达86%;与现有最佳攻击方法相比,将推断准确率与精确率分别提升10.7%及11.2%。 展开更多
关键词 机器学习 黑盒模型 成员推断攻击 变分自编码器 生成对抗网络
下载PDF
机器学习中的成员推断攻击与防御研究
3
作者 王鹏焱 《信息技术与网络安全》 2021年第8期65-70,83,共7页
随着机器学习渗透到日常生活中的各个方面,其数据隐私问题受到越来越多的关注。成员推断攻击是机器学习算法面临的安全威胁之一,用于推断特定数据是否存在于机器学习模型的训练集中,给用户带来极大的安全隐患,对机器学习模型的安全性提... 随着机器学习渗透到日常生活中的各个方面,其数据隐私问题受到越来越多的关注。成员推断攻击是机器学习算法面临的安全威胁之一,用于推断特定数据是否存在于机器学习模型的训练集中,给用户带来极大的安全隐患,对机器学习模型的安全性提出挑战。为此,研究成员推断攻击不仅能发现隐私数据面临的威胁,而且还能为防御技术的提出提供思路。对近年来有关成员推断攻击的研究进行详细的分析,按照应用场景的不同将攻击分为判别模型攻击、生成模型攻击以及联邦学习攻击三类。同时根据成员推断攻击和防御的发展现状,阐述了影响攻击的因素以及经典的防御策略。最后指出成员推断攻击中仍需解决的问题以及未来的发展方向。 展开更多
关键词 机器学习 成员推断攻击 隐私安全 防御技术
下载PDF
基于噪声扰动的成员推断防御机制 被引量:1
4
作者 陈卓 《景德镇学院学报》 2020年第6期4-7,44,共5页
本文提出基于噪声扰动的成员推断防御机制,通过对训练数据提前进行处理来防御MLaaS中训练数据的隐私泄露问题。分析实验中的各个参数,与没有经过扰动的数据集进行比较,结果表明本文使用的方法在训练准确度没有严重损失且训练误差基本保... 本文提出基于噪声扰动的成员推断防御机制,通过对训练数据提前进行处理来防御MLaaS中训练数据的隐私泄露问题。分析实验中的各个参数,与没有经过扰动的数据集进行比较,结果表明本文使用的方法在训练准确度没有严重损失且训练误差基本保持不变的情况下,测试准确度和攻击准确度差值较小且比较接近随机猜测的效果。 展开更多
关键词 深度学习 成员推断攻击 防御 隐私保护
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部