ODS:输出多样化采样,有效增强白盒和黑盒攻击的性能 | NeurIPS 2020

简介: ODS:输出多样化采样,有效增强白盒和黑盒攻击的性能 | NeurIPS 2020

【简介】


本文提出了一种新的采样策略——输出多样化采样,替代对抗攻击方法中常用的随机采样,使得目标模型的输出尽可能多样化,以此提高白盒攻击和黑盒攻击的有效性。实验表明,该种采样策略可以显著提升对抗攻击方法的性能。


image.png

论文地址:

https://arxiv.org/abs/2003.06878


论文代码:

https://github.com/ermongroup/ODS

 

【引言】


神经网络在图像分类任务上取得了很大的成功,但是它们却很容易被对抗样本攻击——人眼不可察的微小扰动就能让其分类错误。因此,设计强有力的攻击方法对评估模型的鲁棒性和防御能力至关重要。目前大部分攻击方法都要依赖于随机采样,也就是给输入图片加入随机噪声。在白盒攻击中,随机采样被用于寻找对抗样本的初始化过程;在黑盒攻击中,随机采样被用来探索生成对抗样本的更新方向。在这些攻击中,都是在模型的输入空间(像素空间)进行随机采样以实现尽可能大的多样性,从而提高对抗的成功率。但是对于复杂的非线性深度神经网络模型,输入空间样本的多样性并不能代表输出空间样本结果的多样性,如下图左侧所示,黑色实心点表示原始输入样本,黑色空心圆圈表示采样得到的扰动,蓝色虚线箭头表示随机采样,我们可以看到,当把随机扰动添加到原始样本上,在输出空间,其对应的输出值距离原始样本的输出值非常接近,也就是说输入空间随机采样的多样性并不能直接导致输出空间结果的多样性。因此,本文作者提出一种新的采样策略——输出多样化采样(ODS),目的在于让样本的输出尽可能多样化。如下图左侧红色实线箭头所示,输入空间的采样结果,映射到输出空间,也能具有很大的多样性。而下图右侧类似,只不过是应用到黑盒攻击中,通过让代理模型的输出尽可能多样化来实现目标模型(被攻击的模型)输出的多样化。


image.png

【模型介绍】


1、输出多样化采样(ODS)


image.png

2、利用ODS增强白盒攻击


在白盒攻击中,我们利用ODS来初始化寻找对抗样本的优化过程(被称为ODI)的起始点,具体公式为:


image.png

image.png

3、利用ODS增强黑盒攻击


image.png

具体算法流程如下表所示:


image.png

对于原始输入图片,在黑盒攻击生成对抗样本的优化过程中,每次迭代都朝着的方向,从而让模型的输出尽可能多样化。

 

【实验结果】


1、白盒攻击实验


在这里,针对两种经典的白盒攻击方法PGD攻击和 C&W攻击,作者比较了利用ODI初始化和普通的随机初始化(naive)的对抗攻击性能,如下表所示。


image.png


我们可以看到,在两种攻击方法PGD和C&W中,采用ODI策略的方法比普通的随机采样在多个模型上都能取得更低的准确率,也就是具有更强的攻击效力。此外,相比于基于MNIST数据集训练的模型,ODI方法在基于CIFAR-10和ImageNet数据集训练的模型上显示出了更大的优势(ODI的结果和naïve的结果差距更大)。作者猜测这可能是受到模型非线性程度的影响。由于基于CIFAR-10和ImageNet的模型具有更强的非线性,因此输入空间和输出空间两者的多样性之间的差距更大,而ODI由于使得样本输出足够多样化,故而有效增强了对抗攻击的性能。

 

作者进一步比较了结合ODI策略的PGD攻击方法(ODI-PGD)与其他对抗攻击方法的性能,如下表所示:


image.png


这里tuned ODI-PGD是指参数经过微调后的ODI-PGD。可以看到,tuned ODI-PGD具有最好的性能,而在基于CIFAR-10的模型上,一般的ODI-PGD的性能也能超过tuned PGD, 同时还具有更小的计算开销。

 

2、黑盒攻击实验


在这里,作者主要评估了利用ODS策略的黑盒攻击方法和其他攻击方法在生成对抗样本的过程中查询次数的多少。


image.png

如上表所示,作者比较了结合ODS的黑盒攻击方法(SimBA-ODS)和原始的黑盒攻击方法(SimBA-DCT),可以发现SimBA-ODS大大减少了查询次数,同时具有更小的扰动距离,也就是更加接近正常样本。

 

此外,作者还比较了查询次数和攻击成功率的关系,以及查询次数和扰动大小的关系。


image.png


如上图所示,可以发现结合ODS的方法(SimBA-ODS)比一般方法(Square)能在较少的查询次数时就达到很高的攻击成功率,从而可以大大减少计算时间开销。


image.png


如上图所示,在有目标攻击和无目标攻击中,结合ODS的攻击方法(Boundary-ODS)在3000多次查询后就能达到其他方法10000次查询才达到的对抗扰动水平。

相关文章
|
7月前
|
机器学习/深度学习 人工智能 安全
论文介绍:从黑盒生产语言模型中提取信息的模型窃取攻击
【2月更文挑战第22天】论文介绍:从黑盒生产语言模型中提取信息的模型窃取攻击
135 6
论文介绍:从黑盒生产语言模型中提取信息的模型窃取攻击
|
7月前
|
机器学习/深度学习 计算机视觉 网络架构
【GhostNet】复现CVPR2020| 保证模型轻量化的同时,提升网络的性能表现
【GhostNet】复现CVPR2020| 保证模型轻量化的同时,提升网络的性能表现
776 0
【GhostNet】复现CVPR2020| 保证模型轻量化的同时,提升网络的性能表现
|
9天前
|
机器学习/深度学习 数据采集 人工智能
打破RLHF瓶颈,克服奖励欺骗!Meta发布全新后训练方式CGPO,编程水平直升5%
Meta提出了一种名为约束生成策略优化(CGPO)的新型后训练范式,用于解决基于人类反馈的强化学习(RLHF)在多任务学习中的挑战,如奖励欺骗和极端多目标优化。CGPO通过混合裁判(MoJ)技术,结合成本效益约束策略优化和分层技术,系统化地识别RLHF中的平衡点。与传统方法相比,CGPO在多个任务上表现出色,包括一般聊天、STEM问题、指令遵循、数学、编程和知识等,且具有理论保证。CGPO还能够检测并缓解奖励欺骗行为,显著提升了多任务学习的性能。论文链接:https://arxiv.org/pdf/2409.20370
29 7
|
23天前
|
机器学习/深度学习 人工智能 自然语言处理
深挖大模型幻觉!哈佛大学最新报告:LLM等价于众包,只是在输出网络共识
大型语言模型(LLM)如ChatGPT正改变人机交互,但在生成看似真实的错误信息方面存在“幻觉”问题。这种现象源于LLM依赖统计概率而非语义理解,导致在处理争议或冷门话题时易出错。研究显示,LLM的准确性高度依赖于训练数据的质量和数量。尽管如此,LLM仍具巨大潜力,需持续优化并保持批判性使用。
45 12
|
1月前
|
数据采集 监控 并行计算
基于MCMC的贝叶斯营销组合模型评估方法论: 系统化诊断、校准及选择的理论框架
贝叶斯营销组合建模(Bayesian Marketing Mix Modeling,MMM)作为一种先进的营销效果评估方法,其核心在于通过贝叶斯框架对营销投资的影响进行量化分析。
60 3
基于MCMC的贝叶斯营销组合模型评估方法论: 系统化诊断、校准及选择的理论框架
|
1月前
|
机器学习/深度学习 人工智能
大模型合成数据机理分析,人大刘勇团队:信息增益影响泛化能力
中国人民大学刘勇团队研究了合成数据对大型语言模型泛化能力的影响,提出逆瓶颈视角,通过“通过互信息的泛化增益”(GGMI)概念,揭示了后训练模型的泛化能力主要取决于从生成模型中获得的信息增益。这一发现为优化合成数据生成和后训练过程提供了重要理论依据。
57 1
|
5月前
|
机器学习/深度学习 搜索推荐 知识图谱
图神经网络加持,突破传统推荐系统局限!北大港大联合提出SelfGNN:有效降低信息过载与数据噪声影响
【7月更文挑战第22天】北大港大联手打造SelfGNN,一种结合图神经网络与自监督学习的推荐系统,专攻信息过载及数据噪声难题。SelfGNN通过短期图捕获实时用户兴趣,利用自增强学习提升模型鲁棒性,实现多时间尺度动态行为建模,大幅优化推荐准确度与时效性。经四大真实数据集测试,SelfGNN在准确性和抗噪能力上超越现有模型。尽管如此,高计算复杂度及对图构建质量的依赖仍是待克服挑战。[详细论文](https://arxiv.org/abs/2405.20878)。
89 5
|
5月前
|
机器学习/深度学习 运维 算法
Doping:使用精心设计的合成数据测试和评估异常检测器的技术
在这篇文章中,我们将探讨测试和评估异常检测器的问题(这是一个众所周知的难题),并提出了一种解决方案被称为“Doping”方法。使用Doping方法,真实数据行会被(通常是)随机修改,修改的方式是确保它们在某些方面可能成为异常值,这时应该被异常检测器检测到。然后通过评估检测器检测Doping记录的效果来评估这些检测器。
58 0
|
6月前
|
存储 人工智能 缓存
大模型压缩量化方案怎么选?无问芯穹Qllm-Eval量化方案全面评估:多模型、多参数、多维度
【6月更文挑战第26天】无问芯穹Qllm-Eval评估了11个大模型(如OPT、LLaMA2)在多种参数配置和任务下的量化效果,探索权重量化、激活量化等方法对性能、速度和内存的影响。研究发现,W4、W4A8量化通常保持在2%的性能损失范围内,但最佳策略取决于模型大小、任务类型及硬件,提示了选择压缩方案时需灵活适应。[[arxiv.org/pdf/2402.18158.pdf](https://arxiv.org/pdf/2402.18158.pdf)]
100 6
|
7月前
|
机器学习/深度学习 数据可视化 算法
R语言贝叶斯广义线性混合(多层次/水平/嵌套)模型GLMM、逻辑回归分析教育留级影响因素数据
R语言贝叶斯广义线性混合(多层次/水平/嵌套)模型GLMM、逻辑回归分析教育留级影响因素数据

热门文章

最新文章