@article{samangouei2018defense-gan:,
title={Defense-GAN: Protecting Classifiers Against Adversarial Attacks Using Generative Models.},
author={Samangouei, Pouya and Kabkab, Maya and Chellappa, Rama},
journal={arXiv: Computer Vision and Pattern Recognition},
year={2018}}
概
本文介绍了一种针对对抗样本的defense方法, 主要是利用GAN训练的生成器, 将样本投影到干净数据集上
.
主要内容
我们知道, GAN的损失函数到达最优时, , 又倘若对抗样本的分布是脱离于
的, 则如果我们能将
投影到真实数据的分布
(如果最优也就是
), 则我们不就能找到一个防御方法了吗?
对于每一个样本, 首先初始化个随机种子
, 对每一个种子, 利用梯度下降(
步)以求最小化
其中为利用训练样本训练的生成器.
得到个点
, 设使得(DGAN)最小的为
, 以及
, 则
就是我们要的, 样本
在普通样本数据中的投影. 将
喂入网络, 判断其类别.
在这里插入图片描述
在这里插入图片描述
另外, 作者还在实验中说明, 可以直接用 来判断是否是对抗样本, 并计算AUC指标, 结果不错.
注: 这个方法, 利用梯度方法更新的难处在于, 这一过程, 包含了
步的内循环, 如果直接反向传梯度会造成梯度爆炸或者消失.