神经网络中的对抗样本

[toc]

对抗网络

参照2013年的论文《Intriguing properties of neural networks》的论文中指出神经网络的两个特性

1.神经网络中包含语义信息的部分并不是在每个独立的神经元,而是整个空间;

2.神经网络学习到的从输入到输出的映射在很大程度上是不连续的。

其造成的结果简单直观地用图表示如图1:

<center>图1</center>
2014年的《Threat of Addversarial Attacks on Deep Learning in Computer Vision: A Survey》有关于对抗攻击更为具体的综述,另外《Explaining and harnessing adversarial examples》指出产生对抗攻击的原因并非网络的复杂性,而是是高纬空间中的线性特性

对抗攻击中的混淆分类器( 由Biggo和Szegedy都提出的攻击策略 ):
x^∗=argmin_x\hat g(x),s.t.d(x,x^0) \geq d_{max}
寻找一个对抗样本x,使它尽可能被分类为目标类别,并且与某个原来的样本x_0在样本空间距离小于d_{max}
\begin{alignat}{} Minimize||r||_2,subject\quad to: \quad &f(x+r)=l \\\\ &x+r∈[0,1]^m \end{alignat}
对于给定的某个样本x,找到离它最近的样本,使得被分类为标签l

此时应用梯度下降法( 或者牛顿法,BFGS,L-BFGS等)

当f(x)在x_k附近连续可微,令x=x_k+ad,d为单位方向,\\\\ 如果g_k=\nabla f(x_k) \not=0 \\\\ 由泰勒展开得 \quad f(x)=f(x_k)+(\nabla f(x_k))^T(x-x_k)+o(\parallel x-x_k \parallel) \\\\ 改写为 \quad f(x+\alpha d)=f(x_k)+\alpha g_k^T d + o(\alpha),\alpha>0 \\\\
\thetad-g_k之间的夹角,则有g_k^T=-g_kcos\theta,显然\cos\theta=1时,g_k^T下降最快,从而f(x)下降最快,此时d=-g_k
联系混淆分类器,即
f(x+r)=f(x_k)+\alpha g_k^T d + o(\alpha),\alpha>0
从《 Evasion attacks against machine learning at test time 》可知对抗攻击并非神经网络独有。(本人认为是传统的机器学习方法在低纬度的线性空间中表现不明显或者从效果上来说还没有达到需要大量关注对抗攻击的地步。)

对于低纬度空间,可以简单地增加神经元数量通过变换空间完成分类,而实际问题中的数据可能很复杂,某些较宽的神经网络对于这种问题避重就轻地拉伸解决,问题图示和拉伸之后如图2:

<center class="half"> <img src="https://auto2dev.coding.net/p/ImageHostingService/d/ImageHostingService/git/raw/master/paper/caiwei_study_2020.3-2.jpg" width="30%"/><img src="https://auto2dev.coding.net/p/ImageHostingService/d/ImageHostingService/git/raw/master/paper/caiwei_study_2020.3-3.jpg" width="30%"/> </center>
<center>图2 较高纬度的复杂问题的数据及其拉伸</center>
当前,针对对抗攻击的防御措施正在沿着三个主要方向发展:

  1. 在学习期间使用经过改良的训练,或者在测试期间使用经过改良的输入。

  2. 修改网络,例如,通过添加更多的层/子网络,更改损失/激活功能等。

  3. 在对看不见的示例进行分类时,使用外部模型作为网络预处理。

  1. 增强神经网络本身的鲁棒性

    Box-constrained L-BFGS优化算法可以找到对抗样本的途径,解决对抗攻击最直观的方法是 增强神经网络本身的鲁棒性 ,即将对抗样本加入到训练集中。

    以ogistic regression为例训练对抗样本。如果我们要训练一个模型来识别标签y∈{−1,1}y∈{−1,1}, P(y=1)=σ(w⊤x+b)P(y=1)=σ(w⊤x+b),其中σσsigmoid函数,然后在
    Ex,y∼pdataζ(−y(w⊤x+b)) \\\\ Ex,y∼pdataζ(−y(w⊤x+b)
    上作梯度下降,其中ζ(x)=log(1+exp(z))ζ(x)=log(1+exp(z))是softplus函数。下面将xx代替为xx上面的线性扰动,推到出的解析式为
    Ex,y∼pdataζ(y(ϵ||w||1−w⊤x−b))

  2. 预处理

    例如:PixelDefend将对抗图像输入分类器之前,将其转换为清晰的图像;高阶表征引导去噪器(HGD)消除察觉不到的扰动视为噪声。

    一般而言,预处理的方法更实用,因为它们不需要重新训练神经网络。然而,在训练降噪器时,HGD 仍然需要大量的对抗图像。因此,在对抗图像较少的情况下很难获得良好的 HGD。PixelDefend 的主要思想是模拟图像空间的分布,当空间太大时,模拟结果会很差。

截止至2018年,表现最优异的防御对抗攻击方法是图像压缩

由于局部结构中相邻像素之间具有很强的相似性和相关性,因此图像压缩可以在保留显著信息的同时减少图像的冗余信息。在此基础上,论文《 a simple and accurate method to fool deep neural networks》中设计了 ComDefend利用图像压缩来消除对抗扰动或打破对抗扰动的结构 ,如图

在清晰的图像上添加不可察觉的扰动可能会欺骗训练有素的深度神经网络。本文主要的思想是提出了一种端到端的图像压缩模型来防御对抗性示例。所提出的模型由压缩卷积神经网络(ComCNN)和重建卷积神经网络(ResCNN)组成。ComCNN用于维护原始图像的结构信息并消除对抗性干扰(预处理降噪)。ResCNN用于重建高质量的原始图像。ComDefend将对抗图像转换为其最原始的图像,然后将其输入经过训练的分类器中。预处理模块,并且不会在整个过程中修改分类器的结构。因此,将其与其他特定于模型的防御模型结合使用,以共同提高分类器的鲁棒性。

参考资料

  1. Akhtar, N., & Mian, A. (2018). Threat of Adversarial Attacks on Deep Learning in Computer Vision: A Survey. IEEE Access, 1–1.
  2. Szegedy, C., Zaremba, W., Sutskever, I., Bruna, J., Erhan, D., Goodfellow, I., & Fergus, R. (2013, December 21). Intriguing properties of neural networks.
  3. Goodfellow, I. J., Shlens, J., & Szegedy, C. (2014, December 20). Explaining and Harnessing Adversarial Examples.
  4. Neural Networks, Manifolds, and Topology
  5. cleverhans blog
  6. How Adversarial Attacks Work
  7. Adversarial Attacks and Defences for Convolutional Neural Networks
  8. Adversarial Training-Fast gradient sign method
  9. Adversarial examples in deep learning
  10. 对抗样本与对抗训练
  11. 《深度学习 卷积神经网络从入门到精通》
  12. 图像对抗样本的生成(FGSM)
  13. Jia X , Wei X , Cao X , et al. ComDefend: An Efficient Image Compression Model to Defend Adversarial Examples[J]. 2018.
  14. Szegedy C, Zaremba W, Sutskever I, et al. Intriguing properties of neural networks[J]. arXiv preprint arXiv:1312.6199, 2013.
  15. Huang L, Joseph A D, Nelson B, et al. Adversarial machine learning[C]//Proceedings of the 4th ACM workshop on Security and artificial intelligence. ACM, 2011: 43-58.
  16. Goodfellow I J, Shlens J, Szegedy C. Explaining and harnessing adversarial examples[J]. arXiv preprint arXiv:1412.6572, 2014.
  17. Moosavi-Dezfooli S M, Fawzi A, Frossard P. Deepfool: a simple and accurate method to fool deep neural networks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2016: 2574-2582.
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 222,104评论 6 515
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 94,816评论 3 399
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 168,697评论 0 360
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,836评论 1 298
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,851评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 52,441评论 1 310
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,992评论 3 421
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,899评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,457评论 1 318
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,529评论 3 341
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,664评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 36,346评论 5 350
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 42,025评论 3 334
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,511评论 0 24
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,611评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 49,081评论 3 377
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,675评论 2 359