期刊文献+
共找到28篇文章
< 1 2 >
每页显示 20 50 100
Towards Securing Machine Learning Models Against Membership Inference Attacks
1
作者 Sana Ben Hamida Hichem Mrabet +2 位作者 Sana Belguith Adeeb Alhomoud Abderrazak Jemai 《Computers, Materials & Continua》 SCIE EI 2022年第3期4897-4919,共23页
From fraud detection to speech recognition,including price prediction,Machine Learning(ML)applications are manifold and can significantly improve different areas.Nevertheless,machine learning models are vulnerable and... From fraud detection to speech recognition,including price prediction,Machine Learning(ML)applications are manifold and can significantly improve different areas.Nevertheless,machine learning models are vulnerable and are exposed to different security and privacy attacks.Hence,these issues should be addressed while using ML models to preserve the security and privacy of the data used.There is a need to secure ML models,especially in the training phase to preserve the privacy of the training datasets and to minimise the information leakage.In this paper,we present an overview of ML threats and vulnerabilities,and we highlight current progress in the research works proposing defence techniques againstML security and privacy attacks.The relevant background for the different attacks occurring in both the training and testing/inferring phases is introduced before presenting a detailed overview of Membership Inference Attacks(MIA)and the related countermeasures.In this paper,we introduce a countermeasure against membership inference attacks(MIA)on Conventional Neural Networks(CNN)based on dropout and L2 regularization.Through experimental analysis,we demonstrate that this defence technique can mitigate the risks of MIA attacks while ensuring an acceptable accuracy of the model.Indeed,using CNN model training on two datasets CIFAR-10 and CIFAR-100,we empirically verify the ability of our defence strategy to decrease the impact of MIA on our model and we compare results of five different classifiers.Moreover,we present a solution to achieve a trade-off between the performance of themodel and the mitigation of MIA attack. 展开更多
关键词 Machine learning security and privacy defence techniques membership inference attacks DROPOUT L2 regularization
下载PDF
Defense against Membership Inference Attack Applying Domain Adaptation with Addictive Noise
2
作者 Hongwei Huang 《Journal of Computer and Communications》 2021年第5期92-108,共17页
Deep learning can train models from a dataset to solve tasks. Although deep learning has attracted much interest owing to the excellent performance, security issues are gradually exposed. Deep learning may be prone to... Deep learning can train models from a dataset to solve tasks. Although deep learning has attracted much interest owing to the excellent performance, security issues are gradually exposed. Deep learning may be prone to the membership inference attack, where the attacker can determine the membership of a given sample. In this paper, we propose a new defense mechanism against membership inference: NoiseDA. In our proposal, a model is not directly trained on a sensitive dataset to alleviate the threat of membership inference attack by leveraging domain adaptation. Besides, a module called Feature Crafter has been designed to reduce the necessary training dataset from 2 to 1, which creates features for domain adaptation training using noise addictive mechanisms. Our experiments have shown that, with the noises properly added by Feature Crafter, our proposal can reduce the success of membership inference with a controllable utility loss. 展开更多
关键词 Privacy-Preserving Machine Learning membership inference attack Domain Adaptation Deep Learning
下载PDF
A Performance Study of Membership Inference Attacks on Different Machine Learning Algorithms
3
作者 Jumana Alsubhi Abdulrahman Gharawi Mohammad Alahmadi 《Journal of Information Hiding and Privacy Protection》 2021年第4期193-200,共8页
Nowadays,machine learning(ML)algorithms cannot succeed without the availability of an enormous amount of training data.The data could contain sensitive information,which needs to be protected.Membership inference atta... Nowadays,machine learning(ML)algorithms cannot succeed without the availability of an enormous amount of training data.The data could contain sensitive information,which needs to be protected.Membership inference attacks attempt to find out whether a target data point is used to train a certain ML model,which results in security and privacy implications.The leakage of membership information can vary from one machine-learning algorithm to another.In this paper,we conduct an empirical study to explore the performance of membership inference attacks against three different machine learning algorithms,namely,K-nearest neighbors,random forest,support vector machine,and logistic regression using three datasets.Our experiments revealed the best machine learning model that can be more immune to privacy attacks.Additionally,we examined the effects of such attacks when varying the dataset size.Based on our observations for the experimental results,we propose a defense mechanism that is less prone to privacy attacks and demonstrate its effectiveness through an empirical evaluation. 展开更多
关键词 membership inference attack data privacy machine learning SECURITY
下载PDF
Evaluating Privacy Leakage and Memorization Attacks on Large Language Models (LLMs) in Generative AI Applications 被引量:1
4
作者 Harshvardhan Aditya Siddansh Chawla +6 位作者 Gunika Dhingra Parijat Rai Saumil Sood Tanmay Singh Zeba Mohsin Wase Arshdeep Bahga Vijay K. Madisetti 《Journal of Software Engineering and Applications》 2024年第5期421-447,共27页
The recent interest in the deployment of Generative AI applications that use large language models (LLMs) has brought to the forefront significant privacy concerns, notably the leakage of Personally Identifiable Infor... The recent interest in the deployment of Generative AI applications that use large language models (LLMs) has brought to the forefront significant privacy concerns, notably the leakage of Personally Identifiable Information (PII) and other confidential or protected information that may have been memorized during training, specifically during a fine-tuning or customization process. We describe different black-box attacks from potential adversaries and study their impact on the amount and type of information that may be recovered from commonly used and deployed LLMs. Our research investigates the relationship between PII leakage, memorization, and factors such as model size, architecture, and the nature of attacks employed. The study utilizes two broad categories of attacks: PII leakage-focused attacks (auto-completion and extraction attacks) and memorization-focused attacks (various membership inference attacks). The findings from these investigations are quantified using an array of evaluative metrics, providing a detailed understanding of LLM vulnerabilities and the effectiveness of different attacks. 展开更多
关键词 Large Language Models PII Leakage Privacy Memorization OVERFITTING membership inference attack (mia)
下载PDF
Protecting LLMs against Privacy Attacks While Preserving Utility
5
作者 Gunika Dhingra Saumil Sood +2 位作者 Zeba Mohsin Wase Arshdeep Bahga Vijay K. Madisetti 《Journal of Information Security》 2024年第4期448-473,共26页
The recent interest in the deployment of Generative AI applications that use large language models (LLMs) has brought to the forefront significant privacy concerns, notably the leakage of Personally Identifiable Infor... The recent interest in the deployment of Generative AI applications that use large language models (LLMs) has brought to the forefront significant privacy concerns, notably the leakage of Personally Identifiable Information (PII) and other confidential or protected information that may have been memorized during training, specifically during a fine-tuning or customization process. This inadvertent leakage of sensitive information typically occurs when the models are subjected to black-box attacks. To address the growing concerns of safeguarding private and sensitive information while simultaneously preserving its utility, we analyze the performance of Targeted Catastrophic Forgetting (TCF). TCF involves preserving targeted pieces of sensitive information within datasets through an iterative pipeline which significantly reduces the likelihood of such information being leaked or reproduced by the model during black-box attacks, such as the autocompletion attack in our case. The experiments conducted using TCF evidently demonstrate its capability to reduce the extraction of PII while still preserving the context and utility of the target application. 展开更多
关键词 Large Language Models PII Leakage PRIVACY Memorization membership inference attack (mia) DEFENSES Generative Adversarial Networks (GANs) Synthetic Data
下载PDF
Black-box membership inference attacks based on shadow model
6
作者 Han Zhen Zhou Wen'an +1 位作者 Han Xiaoxuan Wu Jie 《The Journal of China Universities of Posts and Telecommunications》 EI CSCD 2024年第4期1-16,共16页
Membership inference attacks on machine learning models have drawn significant attention.While current research primarily utilizes shadow modeling techniques,which require knowledge of the target model and training da... Membership inference attacks on machine learning models have drawn significant attention.While current research primarily utilizes shadow modeling techniques,which require knowledge of the target model and training data,practical scenarios involve black-box access to the target model with no available information.Limited training data further complicate the implementation of these attacks.In this paper,we experimentally compare common data enhancement schemes and propose a data synthesis framework based on the variational autoencoder generative adversarial network(VAE-GAN)to extend the training data for shadow models.Meanwhile,this paper proposes a shadow model training algorithm based on adversarial training to improve the shadow model's ability to mimic the predicted behavior of the target model when the target model's information is unknown.By conducting attack experiments on different models under the black-box access setting,this paper verifies the effectiveness of the VAE-GAN-based data synthesis framework for improving the accuracy of membership inference attack.Furthermore,we verify that the shadow model,trained by using the adversarial training approach,effectively improves the degree of mimicking the predicted behavior of the target model.Compared with existing research methods,the method proposed in this paper achieves a 2%improvement in attack accuracy and delivers better attack performance. 展开更多
关键词 machine learning membership inference attack shadow model black-box model
原文传递
A survey on membership inference attacks and defenses in machine learning
7
作者 Jun Niu Peng Liu +7 位作者 Xiaoyan Zhu Kuo Shen Yuecong Wang Haotian Chi Yulong Shen Xiaohong Jiang Jianfeng Ma Yuqing Zhang 《Journal of Information and Intelligence》 2024年第5期404-454,共51页
Membership inference(MI)attacks mainly aim to infer whether a data record was used to train a target model or not.Due to the serious privacy risks,MI attacks have been attracting a tremendous amount of attention in th... Membership inference(MI)attacks mainly aim to infer whether a data record was used to train a target model or not.Due to the serious privacy risks,MI attacks have been attracting a tremendous amount of attention in the research community.One existing work conducted-to our best knowledge the first dedicated survey study in this specific area:The survey provides a comprehensive review of the literature during the period of 2017~2021(e.g.,over 100 papers).However,due to the tremendous amount of progress(i.e.,176 papers)made in this area since 2021,the survey conducted by the one existing work has unfortunately already become very limited in the following two aspects:(1)Although the entire literature from 2017~2021 covers 18 ways to categorize(all the proposed)MI attacks,the literature during the period of 2017~2021,which was reviewed in the one existing work,only covered 5 ways to categorize MI attacks.With 13 ways missing,the survey conducted by the one existing work only covers 27%of the landscape(in terms of how to categorize MI attacks)if a retrospective view is taken.(2)Since the literature during the period of 2017~2021 only covers 27%of the landscape(in terms of how to categorize),the number of new insights(i.e.,why an MI attack could succeed)behind all the proposed MI attacks has been significantly increasing since year 2021.As a result,although none of the previous work has made the insights as a main focus of their studies,we found that the various insights leveraged in the literature can be broken down into 10 groups.Without making the insights as a main focus,a survey study could fail to help researchers gain adequate intellectual depth in this area of research.In this work,we conduct a systematic study to address these limitations.In particular,in order to address the first limitation,we make the 13 newly emerged ways to categorize MI attacks as a main focus on the study.In order to address the second limitation,we provide-to our best knowledge-the first review of the various insights leveraged in the entire literature.We found that the various insights leveraged in the literature can be broken down into 10 groups.Moreover,our survey also provides a comprehensive review of the existing defenses against MI attacks,the existing applications of MI attacks,the widely used datasets(e.g.,107 new datasets),and the eva luation metrics(e.g.,20 new evaluation metrics). 展开更多
关键词 Machine learning Privacy and security membership inference attacks Defensive techniques
原文传递
基于样本遗忘的仅标签成员推理攻击
8
作者 翟旭荣 马垚 +2 位作者 于丹 杨玉丽 陈永乐 《计算机工程与设计》 北大核心 2024年第11期3201-3208,共8页
为重新评估单个样本层面的隐私风险,降低成员推理攻击中错误推理的高昂代价,提出一种基于样本遗忘的仅标签成员推理攻击方法。通过建立样本遗忘因子计算模型,筛选出更容易被遗忘的样本作为成员推理攻击的目标,保证对每个目标的攻击均是... 为重新评估单个样本层面的隐私风险,降低成员推理攻击中错误推理的高昂代价,提出一种基于样本遗忘的仅标签成员推理攻击方法。通过建立样本遗忘因子计算模型,筛选出更容易被遗忘的样本作为成员推理攻击的目标,保证对每个目标的攻击均是有效推理。结合邻域置信度估计算法,实现由输出标签向真实类概率的转换,在严格的黑盒设置下对目标做出高精度预测,在实践中具有更高的可行性和应用价值。通过实验验证了该方法的有效性,为成员推理攻击的研究提供了一种思路和方法。 展开更多
关键词 机器学习 成员推理攻击 样本遗忘 隐私 置信度估计 深度神经网络 仅标签
下载PDF
一种物联网入侵检测和成员推理攻击研究 被引量:1
9
作者 项睿涵 潘巨龙 +1 位作者 李玲艺 方堃 《传感技术学报》 CAS CSCD 北大核心 2024年第2期317-325,共9页
为适应物联网节点计算能力弱、存储空间不足和敏感数据易受攻击等特点,提出一种新的融合卷积神经网络和差分隐私的轻量级入侵检测模型,使模型更好适应物联网苛刻的资源环境。首先,使用MinMax算法对原始流量数据进行归一化预处理;其次,... 为适应物联网节点计算能力弱、存储空间不足和敏感数据易受攻击等特点,提出一种新的融合卷积神经网络和差分隐私的轻量级入侵检测模型,使模型更好适应物联网苛刻的资源环境。首先,使用MinMax算法对原始流量数据进行归一化预处理;其次,设计轻量级卷积神经网络提取流量特征并进行分类;最后使用差分隐私算法对模型可能遇到的成员推理攻击进行防御。新算法在UNSW_NB15等入侵检测数据集上进行了实验,所提模型准确率达到98.98%,精确率达到98.05%,模型大小控制在200 KB左右,相比于DAE-OCSVM算法准确率提高了2.81%,适用于物联网资源有限环境下要求的高精度入侵检测;同时,针对模型可能遇到的成员推理攻击进行研究,算法在融入差分隐私算法后降低了20.96%的成员推理攻击。 展开更多
关键词 入侵检测 物联网 卷积神经网络 差分隐私 成员推理攻击
下载PDF
基于多路冗余神经元的主动成员推理攻击方法
10
作者 汪德刚 孙奕 高琦 《计算机科学》 CSCD 北大核心 2024年第4期373-380,共8页
联邦学习通过交换模型参数或梯度信息来提供对原始数据的隐私保障,但其仍然存在隐私泄露的问题,如成员推理攻击旨在推断目标数据样本是否被用于联邦学习中训练机器学习模型。针对联邦学习中现有基于模型参数构造的主动成员推理攻击对随... 联邦学习通过交换模型参数或梯度信息来提供对原始数据的隐私保障,但其仍然存在隐私泄露的问题,如成员推理攻击旨在推断目标数据样本是否被用于联邦学习中训练机器学习模型。针对联邦学习中现有基于模型参数构造的主动成员推理攻击对随机失活等操作鲁棒性较差的问题,提出了一种基于多路冗余神经元的主动成员推理攻击方法,利用ReLU激活函数输入为负、输出为0的特性,根据待推理目标数据构造模型参数,通过观察成员数据与非成员数据在模型参数更新上的差异进行成员推断,并利用模型神经元的冗余特性构建多个通路实现对随机失活的鲁棒性。在MNIST,CIFAR10以及CIFAR100数据集上的实验证明了该方法的有效性,在引入随机失活的情况下,所提方法仍然能够达到100%的准确率。 展开更多
关键词 联邦学习 机器学习模型 多路冗余神经元 主动成员推理攻击
下载PDF
基于集成学习的成员推理攻击方法
11
作者 赵伟 任潇宁 薛吟兴 《信息网络安全》 CSCD 北大核心 2024年第8期1252-1264,共13页
随着机器学习技术的迅速发展和广泛应用,其涉及的数据隐私问题也引发了广泛关注。成员推理攻击是一种通过推理数据样本是否属于模型训练集合的攻击方法,对医疗、金融等领域的个人隐私构成威胁。然而,现有成员推理攻击的攻击性能有限,并... 随着机器学习技术的迅速发展和广泛应用,其涉及的数据隐私问题也引发了广泛关注。成员推理攻击是一种通过推理数据样本是否属于模型训练集合的攻击方法,对医疗、金融等领域的个人隐私构成威胁。然而,现有成员推理攻击的攻击性能有限,并且差分隐私、知识蒸馏等防御措施减轻了其对个人隐私的威胁。文章深入分析了多种针对分类模型的黑盒成员推理攻击,提出一种攻击性能更好且不易被防御的基于集成学习的成员推理攻击方法。首先分析目标模型的泛化差距、攻击成功率和攻击差异度之间的关系,然后通过不同攻击之间的差异度分析筛选出具有代表性的成员推理攻击,最后利用集成技术对筛选出的攻击方法进行集成优化,以增强攻击效果。实验结果表明,相较于已有的成员推理攻击,基于集成学习的成员推理攻击方法在多种模型和数据集上展现了更好的攻击性能和稳定性。通过深入分析该攻击方法的数据集、模型结构和泛化差距等因素,可为防御此类成员推理攻击提供有益参考。 展开更多
关键词 成员推理攻击 黑盒攻击 差异度 集成学习
下载PDF
基于扩散模型和混合样本的成员推理防御方法
12
作者 余良钊 李啸宇 周灿彬 《广州大学学报(自然科学版)》 CAS 2024年第5期76-84,共9页
在深度学习中,成员推理攻击是指对于任意给定的样本,推断其是否属于目标模型的训练数据集。由于训练数据集中包含隐私信息,对成员推理攻击进行防御属于重要的隐私保护问题。文章首先介绍了成员推理攻击的定义和造成攻击的原因;接着详细... 在深度学习中,成员推理攻击是指对于任意给定的样本,推断其是否属于目标模型的训练数据集。由于训练数据集中包含隐私信息,对成员推理攻击进行防御属于重要的隐私保护问题。文章首先介绍了成员推理攻击的定义和造成攻击的原因;接着详细地介绍了现有的防御算法;最后提出防御方案,并描述防御方案的防御途径。与当下最先进的成员推理攻击防御措施相比,该方案在保护成员隐私和保护模型效用之间提供了最优越的权衡。文章对所使用的方案做了详细的解释,帮助研究者更好地理解成员推理攻击及其防御,为进一步降低训练数据集的隐私风险、更好地取得模型效用和隐私安全之间的平衡性,提供了一定的参考。 展开更多
关键词 成员推理攻击 防御技术 隐私保护 机器学习
下载PDF
面向机器学习模型的基于PCA的成员推理攻击 被引量:6
13
作者 彭长根 高婷 +1 位作者 刘惠篮 丁红发 《通信学报》 EI CSCD 北大核心 2022年第1期149-160,共12页
针对目前黑盒成员推理攻击存在的访问受限失效问题,提出基于主成分分析(PCA)的成员推理攻击。首先,针对黑盒成员推理攻击存在的访问受限问题,提出一种快速决策成员推理攻击fast-attack。在基于距离符号梯度获取扰动样本的基础上将扰动... 针对目前黑盒成员推理攻击存在的访问受限失效问题,提出基于主成分分析(PCA)的成员推理攻击。首先,针对黑盒成员推理攻击存在的访问受限问题,提出一种快速决策成员推理攻击fast-attack。在基于距离符号梯度获取扰动样本的基础上将扰动难度映射到距离范畴来进行成员推理。其次,针对快速决策成员推理攻击存在的低迁移率问题,提出一种基于PCA的成员推理攻击PCA-based attack。将快速决策成员推理攻击中的基于扰动算法与PCA技术相结合来实现成员推理,以抑制因过度依赖模型而导致的低迁移行为。实验表明,fast-attack在确保攻击精度的同时降低了访问成本,PCA-based attack在无监督的设置下优于基线攻击,且模型迁移率相比fast-attack提升10%。 展开更多
关键词 机器学习 对抗样本 成员推理攻击 主成分分析 隐私泄露
下载PDF
面向正常拟合迁移学习模型的成员推理攻击 被引量:1
14
作者 陈晋音 上官文昌 +3 位作者 张京京 郑海斌 郑雅羽 张旭鸿 《通信学报》 EI CSCD 北大核心 2021年第10期197-210,共14页
针对现有成员推理攻击(MIA)在面向正常拟合迁移学习模型时性能较差的问题,对迁移学习模型在正常拟合情况下的MIA进行了系统的研究,设计异常样本检测获取容易受攻击的数据样本,实现对单个样本的成员推理攻击。最终,将提出的攻击方法在4... 针对现有成员推理攻击(MIA)在面向正常拟合迁移学习模型时性能较差的问题,对迁移学习模型在正常拟合情况下的MIA进行了系统的研究,设计异常样本检测获取容易受攻击的数据样本,实现对单个样本的成员推理攻击。最终,将提出的攻击方法在4种图像数据集上展开攻击验证,结果表明,所提MIA有较好的攻击性能。例如,从VGG16(用Caltech101预训练)迁移的Flowers102分类器上,所提MIA实现了83.15%的成员推理精确率,揭示了在迁移学习环境下,即使不访问教师模型,通过访问学生模型依然能实现对教师模型的MIA。 展开更多
关键词 成员推理攻击 深度学习 迁移学习 隐私风险 正常拟合模型
下载PDF
人工智能医学软件抗攻击能力检测方法研究
15
作者 李丹 刘杰 +2 位作者 马燕娇 汤锦依 章婷华 《电子产品可靠性与环境试验》 2022年第6期39-44,共6页
人工智能医学软件由于其智能化特征和领域特殊性,可能面临渗透攻击、对抗攻击、模型窃取和隐私泄露等更加多样的网络安全威胁,其抗攻击能力至关重要。研究了人工智能医学软件抗攻击能力检测方法,提出了人工智能医学软件攻击性测试规格... 人工智能医学软件由于其智能化特征和领域特殊性,可能面临渗透攻击、对抗攻击、模型窃取和隐私泄露等更加多样的网络安全威胁,其抗攻击能力至关重要。研究了人工智能医学软件抗攻击能力检测方法,提出了人工智能医学软件攻击性测试规格化方案,为攻击性测试精细化管理提供了基础。 展开更多
关键词 对抗攻击 模型窃取 成员推断 模型逆向 渗透测试
下载PDF
机器学习系统的隐私和安全问题综述 被引量:27
16
作者 何英哲 胡兴波 +2 位作者 何锦雯 孟国柱 陈恺 《计算机研究与发展》 EI CSCD 北大核心 2019年第10期2049-2070,共22页
人工智能已经渗透到生活的各个角落,给人类带来了极大的便利.尤其是近年来,随着机器学习中深度学习这一分支的蓬勃发展,生活中的相关应用越来越多.不幸的是,机器学习系统也面临着许多安全隐患,而机器学习系统的普及更进一步放大了这些风... 人工智能已经渗透到生活的各个角落,给人类带来了极大的便利.尤其是近年来,随着机器学习中深度学习这一分支的蓬勃发展,生活中的相关应用越来越多.不幸的是,机器学习系统也面临着许多安全隐患,而机器学习系统的普及更进一步放大了这些风险.为了揭示这些安全隐患并实现一个强大的机器学习系统,对主流的深度学习系统进行了调查.首先设计了一个剖析深度学习系统的分析模型,并界定了调查范围.调查的深度学习系统跨越了4个领域——图像分类、音频语音识别、恶意软件检测和自然语言处理,提取了对应4种类型的安全隐患,并从复杂性、攻击成功率和破坏等多个维度对其进行了表征和度量.随后,调研了针对深度学习系统的防御技术及其特点.最后通过对这些系统的观察,提出了构建健壮的深度学习系统的建议. 展开更多
关键词 机器学习安全 深度学习安全 攻防竞赛 对抗攻击 成员推理攻击 隐私保护
下载PDF
基于GAN的联邦学习成员推理攻击与防御方法 被引量:2
17
作者 张佳乐 朱诚诚 +1 位作者 孙小兵 陈兵 《通信学报》 EI CSCD 北大核心 2023年第5期193-205,共13页
针对联邦学习系统极易遭受由恶意参与方在预测阶段发起的成员推理攻击行为,以及现有的防御方法在隐私保护和模型损失之间难以达到平衡的问题,探索了联邦学习中的成员推理攻击及其防御方法。首先提出2种基于生成对抗网络(GAN)的成员推理... 针对联邦学习系统极易遭受由恶意参与方在预测阶段发起的成员推理攻击行为,以及现有的防御方法在隐私保护和模型损失之间难以达到平衡的问题,探索了联邦学习中的成员推理攻击及其防御方法。首先提出2种基于生成对抗网络(GAN)的成员推理攻击方法:类级和用户级成员推理攻击,其中,类级成员推理攻击旨在泄露所有参与方的训练数据隐私,用户级成员推理攻击可以指定某一个特定的参与方;此外,进一步提出一种基于对抗样本的联邦学习成员推理防御方法(Def MIA),通过设计针对全局模型参数的对抗样本噪声添加方法,能够在保证联邦学习准确率的同时,有效防御成员推理攻击。实验结果表明,类级和用户级成员推理攻击可以在联邦学习中获得超过90%的攻击精度,而在使用Def MIA方法后,其攻击精度明显降低,接近于随机猜测(50%)。 展开更多
关键词 联邦学习 成员推理攻击 生成对抗网络 对抗样本 隐私泄露
下载PDF
可逆神经网络的隐私泄露风险评估 被引量:1
18
作者 何毅凡 张杰 +1 位作者 张卫明 俞能海 《网络与信息安全学报》 2023年第4期29-39,共11页
近年来,深度学习已经成为多方领域的核心技术,而深度学习模型的训练过程中往往需要大量的数据,这些数据中可能含有隐私信息,包括个人身份信息(如电话号码、身份证号等)和敏感信息(如金融财务、医疗健康等)。因此,人工智能模型的隐私风... 近年来,深度学习已经成为多方领域的核心技术,而深度学习模型的训练过程中往往需要大量的数据,这些数据中可能含有隐私信息,包括个人身份信息(如电话号码、身份证号等)和敏感信息(如金融财务、医疗健康等)。因此,人工智能模型的隐私风险问题成为学术界的研究热点。深度学习模型的隐私研究仅局限于传统神经网络,而很少针对特殊网络结构的新兴网络(如可逆神经网络)。可逆神经网络的上层信息输入可以由下层输出直接得到,直观上讲,该结构保留了更多有关训练数据的信息,相比传统网络具有更大的隐私泄露风险。为此,提出从数据隐私泄露和模型功能隐私泄露两个层面来探讨深度网络的隐私问题,并将该风险评估策略应用到可逆神经网络。具体来说,选取了两种经典的可逆神经网络(RevNet和i-RevNet),并使用了成员推理攻击、模型逆向攻击、属性推理攻击和模型窃取攻击4种攻击手段进行隐私泄露分析。实验结果表明,可逆神经网络在面对数据层面的隐私攻击时存在相比传统神经网络更严重的隐私泄露风险,而在面对模型层面的隐私攻击时存在相似的隐私泄露风险。由于可逆神经网络研究越来越多,目前被广泛被应用于各种任务,这些任务也涉及敏感数据,在实验结果分析基础上提出了一些潜在的解决方法,希望能够应用于未来可逆神经网络的发展。 展开更多
关键词 可逆神经网络 隐私保护 成员推理攻击 隐私威胁
下载PDF
机器学习中成员推理攻击和防御研究综述 被引量:3
19
作者 牛俊 马骁骥 +7 位作者 陈颖 张歌 何志鹏 侯哲贤 朱笑岩 伍高飞 陈恺 张玉清 《信息安全学报》 CSCD 2022年第6期1-30,共30页
机器学习被广泛应用于各个领域,已成为推动各行业革命的强大动力,极大促进了人工智能的繁荣与发展。同时,机器学习模型的训练和预测均需要大量数据,而这些数据可能包含隐私信息,导致其隐私安全面临严峻挑战。成员推理攻击主要通过推测... 机器学习被广泛应用于各个领域,已成为推动各行业革命的强大动力,极大促进了人工智能的繁荣与发展。同时,机器学习模型的训练和预测均需要大量数据,而这些数据可能包含隐私信息,导致其隐私安全面临严峻挑战。成员推理攻击主要通过推测一个数据样本是否被用于训练目标模型来破坏数据隐私,其不仅可以破坏多种机器学习模型(如,分类模型和生成模型)的数据隐私,而且其隐私泄露也渗透到图像分类、语音识别、自然语言处理、计算机视觉等领域,这对机器学习的长远发展产生了极大的安全威胁。因此,为了提高机器学习模型对成员推理攻击的安全性,本文从机器学习隐私安全攻防角度,全面系统性分析和总结了成员推理攻击和防御的基本原理和特点。首先,介绍了成员推理攻击的定义、威胁模型,并从攻击原理、攻击场景、背景知识、攻击的目标模型、攻击领域、攻击数据集大小六个方面对成员推理攻击进行分类,比较不同攻击的优缺点;然后,从目标模型的训练数据、模型类型以及模型的过拟合程度三个角度分析成员推理攻击存在原因,并从差分隐私、正则化、数据增强、模型堆叠、早停、信任分数掩蔽和知识蒸馏七个层面对比分析不同防御措施;接着,归纳总结了成员推理攻击和防御常用的评估指标和数据集,以及其在其他方面的应用。最后,通过对比分析已有成员推理攻击和防御的优缺点,对其面临的挑战和未来研究方向进行了展望。 展开更多
关键词 机器学习 成员推理攻击 隐私安全 防御措施
下载PDF
黑盒机器学习模型的成员推断攻击研究 被引量:1
20
作者 刘高扬 李雨桐 +2 位作者 万博睿 王琛 彭凯 《信息安全学报》 CSCD 2021年第3期1-15,共15页
近年来,机器学习技术飞速发展,并在自然语言处理、图像识别、搜索推荐等领域得到了广泛的应用。然而,现有大量开放部署的机器学习模型在模型安全与数据隐私方面面临着严峻的挑战。本文重点研究黑盒机器学习模型面临的成员推断攻击问题,... 近年来,机器学习技术飞速发展,并在自然语言处理、图像识别、搜索推荐等领域得到了广泛的应用。然而,现有大量开放部署的机器学习模型在模型安全与数据隐私方面面临着严峻的挑战。本文重点研究黑盒机器学习模型面临的成员推断攻击问题,即给定一条数据记录以及某个机器学习模型的黑盒预测接口,判断此条数据记录是否属于给定模型的训练数据集。为此,本文设计并实现了一种基于变分自编码器的数据合成算法,用于生成与给定模型的原始训练数据分布相近的合成数据;并在此基础上提出了基于生成对抗网络的模拟模型构建算法,利用合成数据训练得到与给定模型具有相似预测能力的机器学习模型。相较于现有的成员推断攻击工作,本文所提出的推断攻击无需目标模型及其训练数据的先验知识,在仅有目标模型黑盒预测接口的条件下,可获得更加准确的攻击结果。通过本地模型和线上机器学习即服务平台BigML的实验结果证明,所提的数据合成算法可以得到高质量的合成数据,模拟模型构建算法可以在更加严苛的条件下模拟给定模型的预测能力。在没有目标模型及其训练数据的先验知识条件下,本文所提的成员推断攻击在针对多种目标模型进行攻击时,推断准确率最高可达74%,推断精确率可达86%;与现有最佳攻击方法相比,将推断准确率与精确率分别提升10.7%及11.2%。 展开更多
关键词 机器学习 黑盒模型 成员推断攻击 变分自编码器 生成对抗网络
下载PDF
上一页 1 2 下一页 到第
使用帮助 返回顶部