期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
共振攻击:揭示跨模态模型CLIP的脆弱性
1
作者
陈天宇
周号益
+4 位作者
何铭睿
仉尚航
闫坤
周萌萌
李建欣
《计算机学报》
EI
CAS
CSCD
北大核心
2023年第12期2597-2611,共15页
视觉-语言跨模态领域已广泛采用预训练模型进行建模和分析.特别是OpenAI最近提出了一种称为CLIP(Contrastive Language-Image Pre-training)的视觉-语言对比式预训练模型.但是,CLIP使用的跨模态预训练方法可能会使不受信任的模型在不同...
视觉-语言跨模态领域已广泛采用预训练模型进行建模和分析.特别是OpenAI最近提出了一种称为CLIP(Contrastive Language-Image Pre-training)的视觉-语言对比式预训练模型.但是,CLIP使用的跨模态预训练方法可能会使不受信任的模型在不同模态下隐藏后门.这种后门可能在用户下载预训练模型并在下游任务上对其进行微调时构成安全威胁.本研究提出了一种新型跨模态后门攻击方法,即共振攻击.共振攻击能使跨模态嵌入表征空间易受到隐藏在视觉或文本输入中的触发器扰动,导致模型失效.共振攻击不依赖于对下游任务的先验知识,通过在对比学习预训练阶段后增加共振学习预训练阶段,可以将触发器植入预训练的CLIP模型中.被攻击的模型只有在触发器使用时才会失效,否则仍可正常运行.在三个下游任务的实验中,共振攻击均获得了30%以上的攻击性能提升,并取得了低于10%的隐蔽性能指数.
展开更多
关键词
跨模态建模
后门攻击
对比学习
预训练模型
迁移学习
下载PDF
职称材料
题名
共振攻击:揭示跨模态模型CLIP的脆弱性
1
作者
陈天宇
周号益
何铭睿
仉尚航
闫坤
周萌萌
李建欣
机构
北京市大数据科学与脑机智能高精尖中心
北京航空航天大学计算机学院
北京航空航天大学软件学院
中关村实验室
北京大学计算机学院
北京微芯区块链与边缘计算研究院
未来区块链与隐私计算高精尖创新中心
出处
《计算机学报》
EI
CAS
CSCD
北大核心
2023年第12期2597-2611,共15页
基金
国家自然科学基金杰出青年基金“网络行为大数据的智能计算”(62225202)和国家自然科学基金青年科学基金项目“面向工业大数据的长序列预测方法研究”(62202029)资助。
文摘
视觉-语言跨模态领域已广泛采用预训练模型进行建模和分析.特别是OpenAI最近提出了一种称为CLIP(Contrastive Language-Image Pre-training)的视觉-语言对比式预训练模型.但是,CLIP使用的跨模态预训练方法可能会使不受信任的模型在不同模态下隐藏后门.这种后门可能在用户下载预训练模型并在下游任务上对其进行微调时构成安全威胁.本研究提出了一种新型跨模态后门攻击方法,即共振攻击.共振攻击能使跨模态嵌入表征空间易受到隐藏在视觉或文本输入中的触发器扰动,导致模型失效.共振攻击不依赖于对下游任务的先验知识,通过在对比学习预训练阶段后增加共振学习预训练阶段,可以将触发器植入预训练的CLIP模型中.被攻击的模型只有在触发器使用时才会失效,否则仍可正常运行.在三个下游任务的实验中,共振攻击均获得了30%以上的攻击性能提升,并取得了低于10%的隐蔽性能指数.
关键词
跨模态建模
后门攻击
对比学习
预训练模型
迁移学习
Keywords
cross-modal model
backdoor attack
contrastive learning
pre-trained model
transfer learning
分类号
TP183 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
共振攻击:揭示跨模态模型CLIP的脆弱性
陈天宇
周号益
何铭睿
仉尚航
闫坤
周萌萌
李建欣
《计算机学报》
EI
CAS
CSCD
北大核心
2023
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部