0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

基于动量的迭代算法来构造对抗扰动以攻击黑盒和白盒模型

5b9O_deeplearni 来源:lq 2019-05-15 17:44 次阅读

编者按:深度模型的精度和速度长期以来成为了评价模型性能的核心标准,但即使性能优越的深度神经网络也很容易被对抗样本攻击。因此,寻找到合适的对抗攻击策略可有效提升模型本身的鲁棒性。本文作者提出了基于动量的迭代算法来构造对抗扰动,有效地减轻了白盒攻击成功率和迁移性能之间的耦合,并能够同时成功攻击白盒和黑盒模型。

一、研究动机

深度神经网络虽然在语音识别、图像分类、物体检测等诸多领域取得了显著效果,但是却很容易受到对抗样本的攻击。对抗样本是指向原始样本中添加微小的噪声,使得深度学习模型错误分类,但是对于人类观察者来说,却很难发现对抗样本和正常样本之间的区别。

生成对抗样本的场景主要分为两种:白盒攻击和黑盒攻击。对于白盒攻击,攻击者知道目标网络的结构和参数,可以利用基于梯度的方法构造对抗样本。由于所构造的对抗样本具有一定的迁移性能(即对于一个模型构造的对抗样本也可以欺骗另一个模型),所以其可以被用来攻击未知结构和参数的黑盒模型,即黑盒攻击。

然而,在实际的应用过程中,攻击一个黑盒模型十分困难,尤其对于具有一定防御措施的模型更加难以黑盒攻击成功。造成此现象的根本原因在于现有攻击方法的白盒攻击成功率和迁移性能之间的耦合与限制,使得没有能够同时达到很好的白盒攻击成功率和迁移性能的方法。

具体地,对于一步迭代的快速梯度符号算法(FGSM),虽然这种方法构造的对抗样本的迁移性能很好,其攻击白盒模型的成功率受到了很大的限制,不能有效地攻击黑盒模型;另一方面,对于多步迭代的方法(I-FGSM),虽然可以很好地攻击白盒模型,但是所构造对抗样本的迁移性能很差,也不能有效地攻击黑盒模型。所以我们提出了一类新的攻击方法,可以有效地减轻白盒攻击成功率和转移性能之间的耦合,同时成功攻击白盒和黑盒模型。

图1:对抗样本示例

二、研究方案

2.1 问题定义

生成对抗噪声本质上可以归结为一个优化问题。对于单个模型f(x),攻击者希望生成满足L_∞限制的无目标对抗样本,即生成对抗样本x^*,使得f(x^*)≠y且‖x^*-x‖_∞≤ϵ,其中y为真实样本x所对应的真实类别、ϵ为所允许的噪声规模。所对应的优化目标为

其中J为模型的损失函数,通常定义为交叉信息熵损失。

2.2 相关工作

为了求解此优化问题,Goodfellow等人首先提出了快速梯度符号法(FGSM),仅通过一次梯度迭代即可以生成对抗样本:

此方法白盒攻击成功率较低。为了提升成功率,迭代式攻击方法(I-FGSM)通过多步更新,可以更好地生成对抗样本,即

此方法虽然白盒攻击成功率较高,但是迁移能力较差,也不利用攻击其它的黑盒模型。

2.3 动量攻击算法

我们提出在基础的迭代式攻击方法上加入动量项,避免在迭代过程中可能出现的更新震荡和落入较差的局部极值,得到能够成功欺骗目标网络的对抗样本。由于迭代方法在迭代过程中的每一步计算当前的梯度,并贪恋地将梯度结果加到对抗样本上,使得所生成的对抗样本仅能欺骗直接攻击的白盒模型,而不能欺骗未知的黑盒模型,在实际的应用中受到了很大的限制。

在一般优化算法中,动量项可以加速收敛、避免较差的局部极值、同时使得更新方向更加平稳。受到一般优化算法中动量项的启发,在生成对抗样本的迭代方法中加入动量项,可以使得生成的对抗样本不仅能有效欺骗白盒模型,也能欺骗未知的黑盒模型,达到更好的攻击效果。

基于动量的迭代式快速梯度符号算法(MI-FGSM)可以用来解决上述问题,算法为:

假设以上迭代过程共迭代T轮,为了满足限制‖x^*-x‖_∞≤ϵ,定义每一步的步长α=ϵ/T。μ为动量值g的衰减系数。通过以上迭代过程对一个真实样本x逐步添加噪声,可以得到能够欺骗模型f(x)的对抗样本x^*,同时x^*也能转移到其他未知模型上,导致多个模型发生分类错误。此方法可以被扩展到有目标攻击和基于L_2度量下的攻击。

2.4 攻击多个模型

为了进一步提升黑盒攻击的成功率,我们可以同时攻击多个白盒模型,以提升对抗样本的迁移性能。对于K个不同的模型,目标是使得构造的对抗样本同时攻击成功所有K个模型。为了达到上述目标,首先将K个模型的未归一化概率值进行加权平均,即

其中l_k (x)为第个模型的未归一化概率值(即网络最后一层softmax的输入);w_k为第k个模型的权重,满足w_k≥0且∑_(k=1)^K▒w_k =11。由此得到了一个集成模型,定义此模型的损失函数为softmax交叉信息熵损失:

由此可以利用之前所述的基于动量的生成对抗样本的方法对此集成模型进行攻击。

三、算法流程图

算法流程图如图2所示。输入一张原始的图片,其可以被图片分类模型正确分类。通过所提出的基于动量的迭代算法构造对抗扰动并添加到原始样本上,得到了对抗图片,会被图片分类模型所错分。

图2:算法流程图

四、实验结果

4.1 数据集

为了测试所提方法的有效性,针对图片分类任务进行对抗样本生成。首先选取7个模型作为研究对象,它们分别为Inception V3 (Inc-v3)、Inception V4 (Inc-v4)、Inception Resnet V2 (IncRes-v2)、Resnet v2-152 (Res-152)、Inc-v3ens3、Inc-v3ens4和IncRes-v2ens。这些模型均在大规模图像数据集ImageNet上训练得到,其中后三个模型为集成对抗训练得到的模型,具备一定的防御能力。本实施选取ImageNet验证集中1000张图片作为研究对象,衡量不同攻击方法的成功率,进而说明其攻击性能。

4.2 评测指标

这里我们选取攻击成功率作为评测指标,定义为原本可以被分类正确的图片中,添加了对抗噪声后被预测为错误标签的图片占的比率。

4.3 实验结果

基于所提方法,我们攻击了Inc-v3、Inc-v4、IncRes-v2和Res-152四个模型,并利用所产生的对抗样本输入所有的7个模型中,测试攻击的效果。为了比较所提出方法的效果,我们还选取了FGSM,I-FGSM两个方法作为基准方法进行比较。实验结果如表1所示:

表1:攻击成功率结果

从表中可以看出,所提出的MI-FGSM方法可以显著地提升黑盒攻击的成功率,相比于I-FGSM,我们的方法可以将攻击成功率提升了一倍左右。我们还展示了集成攻击的效果。实验结果如表2所示。

表2:集成攻击结果

从结果中可以看出,所提出的在模型未归一化概率值进行加权平均的方法效果最好。

五、结论与展望

本篇论文证明了深度学习模型在黑盒场景下的脆弱性,也证明了基于动量的攻击算法的有效性。实验中可以看出,所提出的方法对于具有防御机制的模型的攻击效果较差。我们在后续工作中还提出了平移不变的攻击算法(“Evading Defenses to Transferable Adversarial Examples by Translation-Invariant Attacks”, CVPR 2019, Oral),可以将防御模型的攻击效果进一步提升。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4561

    浏览量

    98623
  • 算法
    +关注

    关注

    23

    文章

    4446

    浏览量

    90712
  • 图像分类
    +关注

    关注

    0

    文章

    87

    浏览量

    11836

原文标题:动量迭代式对抗噪声生成方法 | VALSE2018年度杰出学生论文奖

文章出处:【微信号:deeplearningclass,微信公众号:深度学习大讲堂】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    系统测试、验收测试、黑盒测试、测试、单元测试、集成测试的区别

    系统测试、验收测试、黑盒测试、测试、单元测试、集成测试的区别黑盒测试:已知产品的功能设计规格,可以进行测试证明每个实现了的功能是否符合要求。  
    发表于 10-22 12:42

    HUAWEI DevEco Testing注入攻击测试:以攻为守,守护OpenHarmony终端安全

    过程中使用的不同关键技术,Fuzz测试可以分为Fuzz、黑盒Fuzz、灰Fuzz三类:其中,黑盒Fuzz测试效率最高,无需考虑内部逻辑
    发表于 09-15 10:31

    简化的位置随机扰动粒子群算法

    针对基本粒子群算法(PSO)易陷入局部极值,后期迭代效率不高的缺点,提出了一种简化的位置随机扰动粒子群算法 (SPSDPSO)。新算法通过取
    发表于 01-09 11:36 9次下载

    抑制非线性扰动迭代学习控制系统研究

    转化为时间多周期非线性扰动的条件。提出一种迭代学习控制方法,通过系统误差收敛性分析来构造学习算子,利用系统的稳态误差信号构成前馈补偿,得出补偿多轴测旋转机械体周期非线性扰动的条件,并证
    发表于 11-29 17:19 0次下载
    抑制非线性<b class='flag-5'>扰动</b>的<b class='flag-5'>迭代</b>学习控制系统研究

    HIGHT算法的积分攻击

    对轻量级分组密码算法HIGHT在积分攻击方法下的安全性进行了研究。首先纠正了现有研究成果在构造区分器时的不当之处,重新构造了HIGHT算法
    发表于 02-09 16:48 0次下载

    监测可信度的扰动源定位粒子群算法

    。设计了一种监测可信度函数构建方法,来表征扰动方向判定的准确程度,创新性地建立了粒子群可信度优化模型,提出了独创的评价函数,通过粒子群迭代进行全局寻最优解。通过Matlab仿真表明,所提新算法
    发表于 03-28 10:45 0次下载

    机器学习算法之基于黑盒语音识别的目标对抗样本

    本文提出了一种将遗传算法和梯度估计结合的黑盒攻击方法,使之可以产生比单独算法更好的对抗样本.引入了一个新的
    发表于 05-28 06:27 3151次阅读

    基于多元LDPC码迭代编码算法的混合校验矩阵构造算法

    本文对2004年由王鹏提出的LDPC码迭代编码算法[11]进行改进,转变为适用于多元LDPC码的编码算法,称为多元迭代编码算法;2005年,
    的头像 发表于 09-23 08:59 4458次阅读
    基于多元LDPC码<b class='flag-5'>迭代</b>编码<b class='flag-5'>算法</b>的混合校验矩阵<b class='flag-5'>构造</b><b class='flag-5'>算法</b>

    如何用对抗样本修改图片,误导神经网络指鹿为马

    黑盒攻击则是在神经网络结构为黑箱时,仅通过模型的输入和输出,逆推生成对抗样本。下图左图为白盒攻击(自攻自受),右图为
    的头像 发表于 11-22 09:49 5111次阅读

    深度学习模型对抗攻击及防御措施

    深度学习作为人工智能技术的重要组成部分,被广泛应用于计算机视觉和自然语言处理等领域。尽管深度学习在图像分类和目标检测等任务中取得了较好性能,但是对抗攻击的存在对深度学习模型的安全应用构成了潜在威胁
    发表于 03-12 13:45 74次下载
    深度学习<b class='flag-5'>模型</b>的<b class='flag-5'>对抗</b><b class='flag-5'>攻击</b>及防御措施

    基于SQAG模型的网络攻击建模优化算法

    为降低网络安全风险,更好地实现网络攻击路径的优化,在现有网络攻击图的基础上构建SQAG模型对网络攻击进行建模。该模型
    发表于 03-19 10:54 6次下载
    基于SQAG<b class='flag-5'>模型</b>的网络<b class='flag-5'>攻击</b>建模优化<b class='flag-5'>算法</b>

    基于SQAG模型的网络攻击建模优化算法

    为降低网络安全风险,更好地实现网络攻击路径的优化,在现有网络攻击图的基础上构建SQAG模型对网络攻击进行建模。该模型
    发表于 03-19 10:54 14次下载
    基于SQAG<b class='flag-5'>模型</b>的网络<b class='flag-5'>攻击</b>建模优化<b class='flag-5'>算法</b>

    基于生成器的图像分类对抗样本生成模型

    现有基于生成器的对抗样本生成模型相比基于迭代修改原图的算法可有效降低对抗样本的构造时间,但其生成
    发表于 04-07 14:56 2次下载
    基于生成器的图像分类<b class='flag-5'>对抗</b>样本生成<b class='flag-5'>模型</b>

    针对多媒体模型对抗样本生成与防御方法

    近年来,随着以深度学习为代表的人工智能技术的快速发展和广泛应用,人工智能正深刻地改变着社会生活的各面。然而,人工智能模型也容易受到来自精心构造的¨对抗样木”的攻击。通过在干净的图像或视
    发表于 04-08 09:41 12次下载
    针对多媒体<b class='flag-5'>模型</b>的<b class='flag-5'>对抗</b>样本生成与防御方法

    GAN图像对抗样本生成方法研究综述

    模型蒸馏方法对目标模型进行黑盒复制,获取目标模型的本地复制;然后以G1的输出作为输入以蒸馏模型作为目标
    发表于 04-28 16:39 72次下载
    GAN图像<b class='flag-5'>对抗</b>样本生成方法研究综述