期刊文献+
共找到37篇文章
< 1 2 >
每页显示 20 50 100
Evaluating Privacy Leakage and Memorization Attacks on Large Language Models (LLMs) in Generative AI Applications 被引量:1
1
作者 Harshvardhan Aditya Siddansh Chawla +6 位作者 Gunika Dhingra Parijat Rai Saumil Sood Tanmay Singh Zeba Mohsin Wase Arshdeep Bahga Vijay K. Madisetti 《Journal of Software Engineering and Applications》 2024年第5期421-447,共27页
The recent interest in the deployment of Generative AI applications that use large language models (LLMs) has brought to the forefront significant privacy concerns, notably the leakage of Personally Identifiable Infor... The recent interest in the deployment of Generative AI applications that use large language models (LLMs) has brought to the forefront significant privacy concerns, notably the leakage of Personally Identifiable Information (PII) and other confidential or protected information that may have been memorized during training, specifically during a fine-tuning or customization process. We describe different black-box attacks from potential adversaries and study their impact on the amount and type of information that may be recovered from commonly used and deployed LLMs. Our research investigates the relationship between PII leakage, memorization, and factors such as model size, architecture, and the nature of attacks employed. The study utilizes two broad categories of attacks: PII leakage-focused attacks (auto-completion and extraction attacks) and memorization-focused attacks (various membership inference attacks). The findings from these investigations are quantified using an array of evaluative metrics, providing a detailed understanding of LLM vulnerabilities and the effectiveness of different attacks. 展开更多
关键词 Large Language Models PII Leakage Privacy Memorization OVERFITTING membership Inference attack (MIA)
下载PDF
Protecting LLMs against Privacy Attacks While Preserving Utility
2
作者 Gunika Dhingra Saumil Sood +2 位作者 Zeba Mohsin Wase Arshdeep Bahga Vijay K. Madisetti 《Journal of Information Security》 2024年第4期448-473,共26页
The recent interest in the deployment of Generative AI applications that use large language models (LLMs) has brought to the forefront significant privacy concerns, notably the leakage of Personally Identifiable Infor... The recent interest in the deployment of Generative AI applications that use large language models (LLMs) has brought to the forefront significant privacy concerns, notably the leakage of Personally Identifiable Information (PII) and other confidential or protected information that may have been memorized during training, specifically during a fine-tuning or customization process. This inadvertent leakage of sensitive information typically occurs when the models are subjected to black-box attacks. To address the growing concerns of safeguarding private and sensitive information while simultaneously preserving its utility, we analyze the performance of Targeted Catastrophic Forgetting (TCF). TCF involves preserving targeted pieces of sensitive information within datasets through an iterative pipeline which significantly reduces the likelihood of such information being leaked or reproduced by the model during black-box attacks, such as the autocompletion attack in our case. The experiments conducted using TCF evidently demonstrate its capability to reduce the extraction of PII while still preserving the context and utility of the target application. 展开更多
关键词 Large Language Models PII Leakage PRIVACY Memorization membership Inference attack (MIA) DEFENSES Generative Adversarial Networks (GANs) Synthetic Data
下载PDF
Towards Securing Machine Learning Models Against Membership Inference Attacks
3
作者 Sana Ben Hamida Hichem Mrabet +2 位作者 Sana Belguith Adeeb Alhomoud Abderrazak Jemai 《Computers, Materials & Continua》 SCIE EI 2022年第3期4897-4919,共23页
From fraud detection to speech recognition,including price prediction,Machine Learning(ML)applications are manifold and can significantly improve different areas.Nevertheless,machine learning models are vulnerable and... From fraud detection to speech recognition,including price prediction,Machine Learning(ML)applications are manifold and can significantly improve different areas.Nevertheless,machine learning models are vulnerable and are exposed to different security and privacy attacks.Hence,these issues should be addressed while using ML models to preserve the security and privacy of the data used.There is a need to secure ML models,especially in the training phase to preserve the privacy of the training datasets and to minimise the information leakage.In this paper,we present an overview of ML threats and vulnerabilities,and we highlight current progress in the research works proposing defence techniques againstML security and privacy attacks.The relevant background for the different attacks occurring in both the training and testing/inferring phases is introduced before presenting a detailed overview of Membership Inference Attacks(MIA)and the related countermeasures.In this paper,we introduce a countermeasure against membership inference attacks(MIA)on Conventional Neural Networks(CNN)based on dropout and L2 regularization.Through experimental analysis,we demonstrate that this defence technique can mitigate the risks of MIA attacks while ensuring an acceptable accuracy of the model.Indeed,using CNN model training on two datasets CIFAR-10 and CIFAR-100,we empirically verify the ability of our defence strategy to decrease the impact of MIA on our model and we compare results of five different classifiers.Moreover,we present a solution to achieve a trade-off between the performance of themodel and the mitigation of MIA attack. 展开更多
关键词 Machine learning security and privacy defence techniques membership inference attacks DROPOUT L2 regularization
下载PDF
Defense against Membership Inference Attack Applying Domain Adaptation with Addictive Noise
4
作者 Hongwei Huang 《Journal of Computer and Communications》 2021年第5期92-108,共17页
Deep learning can train models from a dataset to solve tasks. Although deep learning has attracted much interest owing to the excellent performance, security issues are gradually exposed. Deep learning may be prone to... Deep learning can train models from a dataset to solve tasks. Although deep learning has attracted much interest owing to the excellent performance, security issues are gradually exposed. Deep learning may be prone to the membership inference attack, where the attacker can determine the membership of a given sample. In this paper, we propose a new defense mechanism against membership inference: NoiseDA. In our proposal, a model is not directly trained on a sensitive dataset to alleviate the threat of membership inference attack by leveraging domain adaptation. Besides, a module called Feature Crafter has been designed to reduce the necessary training dataset from 2 to 1, which creates features for domain adaptation training using noise addictive mechanisms. Our experiments have shown that, with the noises properly added by Feature Crafter, our proposal can reduce the success of membership inference with a controllable utility loss. 展开更多
关键词 Privacy-Preserving Machine Learning membership Inference attack Domain Adaptation Deep Learning
下载PDF
A Performance Study of Membership Inference Attacks on Different Machine Learning Algorithms
5
作者 Jumana Alsubhi Abdulrahman Gharawi Mohammad Alahmadi 《Journal of Information Hiding and Privacy Protection》 2021年第4期193-200,共8页
Nowadays,machine learning(ML)algorithms cannot succeed without the availability of an enormous amount of training data.The data could contain sensitive information,which needs to be protected.Membership inference atta... Nowadays,machine learning(ML)algorithms cannot succeed without the availability of an enormous amount of training data.The data could contain sensitive information,which needs to be protected.Membership inference attacks attempt to find out whether a target data point is used to train a certain ML model,which results in security and privacy implications.The leakage of membership information can vary from one machine-learning algorithm to another.In this paper,we conduct an empirical study to explore the performance of membership inference attacks against three different machine learning algorithms,namely,K-nearest neighbors,random forest,support vector machine,and logistic regression using three datasets.Our experiments revealed the best machine learning model that can be more immune to privacy attacks.Additionally,we examined the effects of such attacks when varying the dataset size.Based on our observations for the experimental results,we propose a defense mechanism that is less prone to privacy attacks and demonstrate its effectiveness through an empirical evaluation. 展开更多
关键词 membership inference attack data privacy machine learning SECURITY
下载PDF
一种物联网入侵检测和成员推理攻击研究 被引量:1
6
作者 项睿涵 潘巨龙 +1 位作者 李玲艺 方堃 《传感技术学报》 CAS CSCD 北大核心 2024年第2期317-325,共9页
为适应物联网节点计算能力弱、存储空间不足和敏感数据易受攻击等特点,提出一种新的融合卷积神经网络和差分隐私的轻量级入侵检测模型,使模型更好适应物联网苛刻的资源环境。首先,使用MinMax算法对原始流量数据进行归一化预处理;其次,... 为适应物联网节点计算能力弱、存储空间不足和敏感数据易受攻击等特点,提出一种新的融合卷积神经网络和差分隐私的轻量级入侵检测模型,使模型更好适应物联网苛刻的资源环境。首先,使用MinMax算法对原始流量数据进行归一化预处理;其次,设计轻量级卷积神经网络提取流量特征并进行分类;最后使用差分隐私算法对模型可能遇到的成员推理攻击进行防御。新算法在UNSW_NB15等入侵检测数据集上进行了实验,所提模型准确率达到98.98%,精确率达到98.05%,模型大小控制在200 KB左右,相比于DAE-OCSVM算法准确率提高了2.81%,适用于物联网资源有限环境下要求的高精度入侵检测;同时,针对模型可能遇到的成员推理攻击进行研究,算法在融入差分隐私算法后降低了20.96%的成员推理攻击。 展开更多
关键词 入侵检测 物联网 卷积神经网络 差分隐私 成员推理攻击
下载PDF
基于多路冗余神经元的主动成员推理攻击方法
7
作者 汪德刚 孙奕 高琦 《计算机科学》 CSCD 北大核心 2024年第4期373-380,共8页
联邦学习通过交换模型参数或梯度信息来提供对原始数据的隐私保障,但其仍然存在隐私泄露的问题,如成员推理攻击旨在推断目标数据样本是否被用于联邦学习中训练机器学习模型。针对联邦学习中现有基于模型参数构造的主动成员推理攻击对随... 联邦学习通过交换模型参数或梯度信息来提供对原始数据的隐私保障,但其仍然存在隐私泄露的问题,如成员推理攻击旨在推断目标数据样本是否被用于联邦学习中训练机器学习模型。针对联邦学习中现有基于模型参数构造的主动成员推理攻击对随机失活等操作鲁棒性较差的问题,提出了一种基于多路冗余神经元的主动成员推理攻击方法,利用ReLU激活函数输入为负、输出为0的特性,根据待推理目标数据构造模型参数,通过观察成员数据与非成员数据在模型参数更新上的差异进行成员推断,并利用模型神经元的冗余特性构建多个通路实现对随机失活的鲁棒性。在MNIST,CIFAR10以及CIFAR100数据集上的实验证明了该方法的有效性,在引入随机失活的情况下,所提方法仍然能够达到100%的准确率。 展开更多
关键词 联邦学习 机器学习模型 多路冗余神经元 主动成员推理攻击
下载PDF
Black-box membership inference attacks based on shadow model
8
作者 Han Zhen Zhou Wen'an +1 位作者 Han Xiaoxuan Wu Jie 《The Journal of China Universities of Posts and Telecommunications》 EI CSCD 2024年第4期1-16,共16页
Membership inference attacks on machine learning models have drawn significant attention.While current research primarily utilizes shadow modeling techniques,which require knowledge of the target model and training da... Membership inference attacks on machine learning models have drawn significant attention.While current research primarily utilizes shadow modeling techniques,which require knowledge of the target model and training data,practical scenarios involve black-box access to the target model with no available information.Limited training data further complicate the implementation of these attacks.In this paper,we experimentally compare common data enhancement schemes and propose a data synthesis framework based on the variational autoencoder generative adversarial network(VAE-GAN)to extend the training data for shadow models.Meanwhile,this paper proposes a shadow model training algorithm based on adversarial training to improve the shadow model's ability to mimic the predicted behavior of the target model when the target model's information is unknown.By conducting attack experiments on different models under the black-box access setting,this paper verifies the effectiveness of the VAE-GAN-based data synthesis framework for improving the accuracy of membership inference attack.Furthermore,we verify that the shadow model,trained by using the adversarial training approach,effectively improves the degree of mimicking the predicted behavior of the target model.Compared with existing research methods,the method proposed in this paper achieves a 2%improvement in attack accuracy and delivers better attack performance. 展开更多
关键词 machine learning membership inference attack shadow model black-box model
原文传递
基于集成学习的成员推理攻击方法
9
作者 赵伟 任潇宁 薛吟兴 《信息网络安全》 CSCD 北大核心 2024年第8期1252-1264,共13页
随着机器学习技术的迅速发展和广泛应用,其涉及的数据隐私问题也引发了广泛关注。成员推理攻击是一种通过推理数据样本是否属于模型训练集合的攻击方法,对医疗、金融等领域的个人隐私构成威胁。然而,现有成员推理攻击的攻击性能有限,并... 随着机器学习技术的迅速发展和广泛应用,其涉及的数据隐私问题也引发了广泛关注。成员推理攻击是一种通过推理数据样本是否属于模型训练集合的攻击方法,对医疗、金融等领域的个人隐私构成威胁。然而,现有成员推理攻击的攻击性能有限,并且差分隐私、知识蒸馏等防御措施减轻了其对个人隐私的威胁。文章深入分析了多种针对分类模型的黑盒成员推理攻击,提出一种攻击性能更好且不易被防御的基于集成学习的成员推理攻击方法。首先分析目标模型的泛化差距、攻击成功率和攻击差异度之间的关系,然后通过不同攻击之间的差异度分析筛选出具有代表性的成员推理攻击,最后利用集成技术对筛选出的攻击方法进行集成优化,以增强攻击效果。实验结果表明,相较于已有的成员推理攻击,基于集成学习的成员推理攻击方法在多种模型和数据集上展现了更好的攻击性能和稳定性。通过深入分析该攻击方法的数据集、模型结构和泛化差距等因素,可为防御此类成员推理攻击提供有益参考。 展开更多
关键词 成员推理攻击 黑盒攻击 差异度 集成学习
下载PDF
基于扩散模型和混合样本的成员推理防御方法
10
作者 余良钊 李啸宇 周灿彬 《广州大学学报(自然科学版)》 CAS 2024年第5期76-84,共9页
在深度学习中,成员推理攻击是指对于任意给定的样本,推断其是否属于目标模型的训练数据集。由于训练数据集中包含隐私信息,对成员推理攻击进行防御属于重要的隐私保护问题。文章首先介绍了成员推理攻击的定义和造成攻击的原因;接着详细... 在深度学习中,成员推理攻击是指对于任意给定的样本,推断其是否属于目标模型的训练数据集。由于训练数据集中包含隐私信息,对成员推理攻击进行防御属于重要的隐私保护问题。文章首先介绍了成员推理攻击的定义和造成攻击的原因;接着详细地介绍了现有的防御算法;最后提出防御方案,并描述防御方案的防御途径。与当下最先进的成员推理攻击防御措施相比,该方案在保护成员隐私和保护模型效用之间提供了最优越的权衡。文章对所使用的方案做了详细的解释,帮助研究者更好地理解成员推理攻击及其防御,为进一步降低训练数据集的隐私风险、更好地取得模型效用和隐私安全之间的平衡性,提供了一定的参考。 展开更多
关键词 成员推理攻击 防御技术 隐私保护 机器学习
下载PDF
A survey on membership inference attacks and defenses in machine learning
11
作者 Jun Niu Peng Liu +7 位作者 Xiaoyan Zhu Kuo Shen Yuecong Wang Haotian Chi Yulong Shen Xiaohong Jiang Jianfeng Ma Yuqing Zhang 《Journal of Information and Intelligence》 2024年第5期404-454,共51页
Membership inference(MI)attacks mainly aim to infer whether a data record was used to train a target model or not.Due to the serious privacy risks,MI attacks have been attracting a tremendous amount of attention in th... Membership inference(MI)attacks mainly aim to infer whether a data record was used to train a target model or not.Due to the serious privacy risks,MI attacks have been attracting a tremendous amount of attention in the research community.One existing work conducted-to our best knowledge the first dedicated survey study in this specific area:The survey provides a comprehensive review of the literature during the period of 2017~2021(e.g.,over 100 papers).However,due to the tremendous amount of progress(i.e.,176 papers)made in this area since 2021,the survey conducted by the one existing work has unfortunately already become very limited in the following two aspects:(1)Although the entire literature from 2017~2021 covers 18 ways to categorize(all the proposed)MI attacks,the literature during the period of 2017~2021,which was reviewed in the one existing work,only covered 5 ways to categorize MI attacks.With 13 ways missing,the survey conducted by the one existing work only covers 27%of the landscape(in terms of how to categorize MI attacks)if a retrospective view is taken.(2)Since the literature during the period of 2017~2021 only covers 27%of the landscape(in terms of how to categorize),the number of new insights(i.e.,why an MI attack could succeed)behind all the proposed MI attacks has been significantly increasing since year 2021.As a result,although none of the previous work has made the insights as a main focus of their studies,we found that the various insights leveraged in the literature can be broken down into 10 groups.Without making the insights as a main focus,a survey study could fail to help researchers gain adequate intellectual depth in this area of research.In this work,we conduct a systematic study to address these limitations.In particular,in order to address the first limitation,we make the 13 newly emerged ways to categorize MI attacks as a main focus on the study.In order to address the second limitation,we provide-to our best knowledge-the first review of the various insights leveraged in the entire literature.We found that the various insights leveraged in the literature can be broken down into 10 groups.Moreover,our survey also provides a comprehensive review of the existing defenses against MI attacks,the existing applications of MI attacks,the widely used datasets(e.g.,107 new datasets),and the eva luation metrics(e.g.,20 new evaluation metrics). 展开更多
关键词 Machine learning Privacy and security membership inference attacks Defensive techniques
原文传递
基于GAN的联邦学习成员推理攻击与防御方法 被引量:2
12
作者 张佳乐 朱诚诚 +1 位作者 孙小兵 陈兵 《通信学报》 EI CSCD 北大核心 2023年第5期193-205,共13页
针对联邦学习系统极易遭受由恶意参与方在预测阶段发起的成员推理攻击行为,以及现有的防御方法在隐私保护和模型损失之间难以达到平衡的问题,探索了联邦学习中的成员推理攻击及其防御方法。首先提出2种基于生成对抗网络(GAN)的成员推理... 针对联邦学习系统极易遭受由恶意参与方在预测阶段发起的成员推理攻击行为,以及现有的防御方法在隐私保护和模型损失之间难以达到平衡的问题,探索了联邦学习中的成员推理攻击及其防御方法。首先提出2种基于生成对抗网络(GAN)的成员推理攻击方法:类级和用户级成员推理攻击,其中,类级成员推理攻击旨在泄露所有参与方的训练数据隐私,用户级成员推理攻击可以指定某一个特定的参与方;此外,进一步提出一种基于对抗样本的联邦学习成员推理防御方法(Def MIA),通过设计针对全局模型参数的对抗样本噪声添加方法,能够在保证联邦学习准确率的同时,有效防御成员推理攻击。实验结果表明,类级和用户级成员推理攻击可以在联邦学习中获得超过90%的攻击精度,而在使用Def MIA方法后,其攻击精度明显降低,接近于随机猜测(50%)。 展开更多
关键词 联邦学习 成员推理攻击 生成对抗网络 对抗样本 隐私泄露
下载PDF
可逆神经网络的隐私泄露风险评估 被引量:1
13
作者 何毅凡 张杰 +1 位作者 张卫明 俞能海 《网络与信息安全学报》 2023年第4期29-39,共11页
近年来,深度学习已经成为多方领域的核心技术,而深度学习模型的训练过程中往往需要大量的数据,这些数据中可能含有隐私信息,包括个人身份信息(如电话号码、身份证号等)和敏感信息(如金融财务、医疗健康等)。因此,人工智能模型的隐私风... 近年来,深度学习已经成为多方领域的核心技术,而深度学习模型的训练过程中往往需要大量的数据,这些数据中可能含有隐私信息,包括个人身份信息(如电话号码、身份证号等)和敏感信息(如金融财务、医疗健康等)。因此,人工智能模型的隐私风险问题成为学术界的研究热点。深度学习模型的隐私研究仅局限于传统神经网络,而很少针对特殊网络结构的新兴网络(如可逆神经网络)。可逆神经网络的上层信息输入可以由下层输出直接得到,直观上讲,该结构保留了更多有关训练数据的信息,相比传统网络具有更大的隐私泄露风险。为此,提出从数据隐私泄露和模型功能隐私泄露两个层面来探讨深度网络的隐私问题,并将该风险评估策略应用到可逆神经网络。具体来说,选取了两种经典的可逆神经网络(RevNet和i-RevNet),并使用了成员推理攻击、模型逆向攻击、属性推理攻击和模型窃取攻击4种攻击手段进行隐私泄露分析。实验结果表明,可逆神经网络在面对数据层面的隐私攻击时存在相比传统神经网络更严重的隐私泄露风险,而在面对模型层面的隐私攻击时存在相似的隐私泄露风险。由于可逆神经网络研究越来越多,目前被广泛被应用于各种任务,这些任务也涉及敏感数据,在实验结果分析基础上提出了一些潜在的解决方法,希望能够应用于未来可逆神经网络的发展。 展开更多
关键词 可逆神经网络 隐私保护 成员推理攻击 隐私威胁
下载PDF
一种基于双阈值函数的成员推理攻击方法
14
作者 陈得鹏 刘肖 +1 位作者 崔杰 仲红 《信息网络安全》 CSCD 北大核心 2023年第2期64-75,共12页
海量数据和强大算力的出现,促进了深度学习的发展,深度学习在智慧交通和医疗诊断等领域得到广泛应用,这给人们的日常生活带来许多便利。然而,机器学习中的隐私泄露问题也不容忽视。成员推理攻击通过推断数据样本是否用于训练机器学习模... 海量数据和强大算力的出现,促进了深度学习的发展,深度学习在智慧交通和医疗诊断等领域得到广泛应用,这给人们的日常生活带来许多便利。然而,机器学习中的隐私泄露问题也不容忽视。成员推理攻击通过推断数据样本是否用于训练机器学习模型,从而暴露用户训练数据的隐私。文章介绍了基于单阈值的成员推理攻击及特点,对不同攻击方法的成员和非成员的数据分布进行可视化,然后对成员推理攻击成功的内在机理进行分析,提出了基于双阈值函数的攻击模型,并通过实验对单阈值和双阈值的成员推理攻击进行系统性的分析对比,分析基于阈值成员推理攻击对不同模型和不同数据集的攻击表现。通过对多组控制变量的对比实验表明,基于双阈值函数的成员推理攻击在某些数据集和模型上,整体表现更加优异和稳定。 展开更多
关键词 深度学习 成员推理攻击 隐私泄露 双阈值函数
下载PDF
基于标签的无数据的成员推理攻击 被引量:1
15
作者 杨盼盼 张信明 《网络安全与数据治理》 2023年第5期44-49,共6页
成员推理攻击根据模型的预测结果推断特定记录是否为模型的训练数据成员,在隐私保护等领域具有重要应用意义。现有的基于标签的无数据的成员推理攻击方法主要利用对抗样本技术,存在查询和计算成本较高的问题。对此提出一种新的成员推理... 成员推理攻击根据模型的预测结果推断特定记录是否为模型的训练数据成员,在隐私保护等领域具有重要应用意义。现有的基于标签的无数据的成员推理攻击方法主要利用对抗样本技术,存在查询和计算成本较高的问题。对此提出一种新的成员推理攻击方法,该方法利用影子模型来减少多次攻击的查询代价,并提出数据筛选与优化策略以提高攻击模型的性能。实验在两个常见的图像数据集上进行,结果表明该方法同时具有较高的攻击成功率和较低的查询成本。 展开更多
关键词 成员推理攻击 无数据 基于标签
下载PDF
面向机器学习的成员推理攻击综述
16
作者 陈得鹏 刘肖 +1 位作者 崔杰 何道敬 《计算机科学》 CSCD 北大核心 2023年第1期302-317,共16页
随着机器学习的不断发展,特别是在深度学习领域,人工智能已经融入到人们日常生活的方方面面。机器学习模型被部署到多种场景的应用中,提升了传统应用的智能化水平。然而,近年来的研究指出,用于训练机器学习模型的个人数据时常面临隐私... 随着机器学习的不断发展,特别是在深度学习领域,人工智能已经融入到人们日常生活的方方面面。机器学习模型被部署到多种场景的应用中,提升了传统应用的智能化水平。然而,近年来的研究指出,用于训练机器学习模型的个人数据时常面临隐私泄露的风险。其中,成员推理攻击就是针对机器学习模型威胁用户隐私安全的一种非常重要的攻击方式。成员推理攻击的目的是判断用户数据样本是否被用于训练目标模型(如在医疗、金融等领域的用户数据),从而直接干涉到用户隐私信息。首先介绍了成员推理攻击的相关背景知识,随后对现有的成员推理攻击按照攻击者是否拥有影子模型进行分类,并对成员推理攻击在不同领域的威胁进行了相应的总结。其次,介绍了应对成员推理攻击的防御手段,对现有的防御机制按照模型过拟合、基于模型压缩和基于扰动等策略进行分类和总结。最后,对现有的成员推理攻击和防御机制的优缺点进行了分析,并提出了成员推理攻击的一些潜在的研究方向。 展开更多
关键词 机器学习 隐私保护 成员推理攻击 防御机制
下载PDF
基于神经网络模型的成员推理防御算法 被引量:2
17
作者 吕彦超 杨玉丽 陈永乐 《太原理工大学学报》 CAS 北大核心 2023年第5期763-772,共10页
【目的】针对机器学习模型在训练过程中可能泄露训练数据隐私,为成员推理攻击所利用,进而窃取用户敏感信息的问题,提出了一种基于神经网络的期望均衡优化算法(EEO).【方法】采用对抗训练并优化的策略,分为内外两层循环来实现:内层循环... 【目的】针对机器学习模型在训练过程中可能泄露训练数据隐私,为成员推理攻击所利用,进而窃取用户敏感信息的问题,提出了一种基于神经网络的期望均衡优化算法(EEO).【方法】采用对抗训练并优化的策略,分为内外两层循环来实现:内层循环假设一个足够强大的对手,其目标为最大化攻击模型期望;外层循环有针对性地进行防御训练,其目标为最大化目标模型期望。利用小批量梯度下降法使内外两层循环的损失值都达到最小,从而既保证模型精度,又降低对手成员推理的能力。【结果】采用3个有代表性的图像数据集MNIST、FASHION、Face,将EEO应用于优化后的神经网络模型进行成员推理攻击实验,3个数据集的测试精度分别损失了2.2%、4.7%和3.7%,而攻击模型的精度分别下降了14.6%、16.5%和13.9%,并且已接近50%,即随机猜测。【结论】实验结果表明该算法较好地兼顾了模型的高可用性与高隐私性,尽管仍会不可避免地产生隐私泄露,但训练出的神经网络模型对成员推理攻击有很强的防御效果,且对目标模型的影响可以忽略。 展开更多
关键词 机器学习 神经网络 成员推理攻击 数据安全 隐私保护 模型推理
下载PDF
面向机器学习模型的基于PCA的成员推理攻击 被引量:6
18
作者 彭长根 高婷 +1 位作者 刘惠篮 丁红发 《通信学报》 EI CSCD 北大核心 2022年第1期149-160,共12页
针对目前黑盒成员推理攻击存在的访问受限失效问题,提出基于主成分分析(PCA)的成员推理攻击。首先,针对黑盒成员推理攻击存在的访问受限问题,提出一种快速决策成员推理攻击fast-attack。在基于距离符号梯度获取扰动样本的基础上将扰动... 针对目前黑盒成员推理攻击存在的访问受限失效问题,提出基于主成分分析(PCA)的成员推理攻击。首先,针对黑盒成员推理攻击存在的访问受限问题,提出一种快速决策成员推理攻击fast-attack。在基于距离符号梯度获取扰动样本的基础上将扰动难度映射到距离范畴来进行成员推理。其次,针对快速决策成员推理攻击存在的低迁移率问题,提出一种基于PCA的成员推理攻击PCA-based attack。将快速决策成员推理攻击中的基于扰动算法与PCA技术相结合来实现成员推理,以抑制因过度依赖模型而导致的低迁移行为。实验表明,fast-attack在确保攻击精度的同时降低了访问成本,PCA-based attack在无监督的设置下优于基线攻击,且模型迁移率相比fast-attack提升10%。 展开更多
关键词 机器学习 对抗样本 成员推理攻击 主成分分析 隐私泄露
下载PDF
基于模糊模式识别的免疫模型的设计 被引量:1
19
作者 符海东 袁细国 《计算机应用》 CSCD 北大核心 2007年第1期89-91,共3页
针对目前入侵检测系统的脆弱性,提出了一种新的基于模糊模式识别的信息处理方法,建立了模式识别模型,把该模型应用于基于人工免疫原理的入侵检测系统的设计方案之中,这在一定程度上克服了传统的基于确定性数学模型的局限性。实验结果表... 针对目前入侵检测系统的脆弱性,提出了一种新的基于模糊模式识别的信息处理方法,建立了模式识别模型,把该模型应用于基于人工免疫原理的入侵检测系统的设计方案之中,这在一定程度上克服了传统的基于确定性数学模型的局限性。实验结果表明,该模型具有较高的检测效率。 展开更多
关键词 入侵检测系统 模糊模式识别 人工免疫 隶属度 网络入侵
下载PDF
面向正常拟合迁移学习模型的成员推理攻击 被引量:1
20
作者 陈晋音 上官文昌 +3 位作者 张京京 郑海斌 郑雅羽 张旭鸿 《通信学报》 EI CSCD 北大核心 2021年第10期197-210,共14页
针对现有成员推理攻击(MIA)在面向正常拟合迁移学习模型时性能较差的问题,对迁移学习模型在正常拟合情况下的MIA进行了系统的研究,设计异常样本检测获取容易受攻击的数据样本,实现对单个样本的成员推理攻击。最终,将提出的攻击方法在4... 针对现有成员推理攻击(MIA)在面向正常拟合迁移学习模型时性能较差的问题,对迁移学习模型在正常拟合情况下的MIA进行了系统的研究,设计异常样本检测获取容易受攻击的数据样本,实现对单个样本的成员推理攻击。最终,将提出的攻击方法在4种图像数据集上展开攻击验证,结果表明,所提MIA有较好的攻击性能。例如,从VGG16(用Caltech101预训练)迁移的Flowers102分类器上,所提MIA实现了83.15%的成员推理精确率,揭示了在迁移学习环境下,即使不访问教师模型,通过访问学生模型依然能实现对教师模型的MIA。 展开更多
关键词 成员推理攻击 深度学习 迁移学习 隐私风险 正常拟合模型
下载PDF
上一页 1 2 下一页 到第
使用帮助 返回顶部