Defending Adversarial Attacks by Correcting logits

Li Y., Xie L., Zhang Y., Zhang R., Wang Y., Tian Q., Defending Adversarial Attacks by Correcting logits[J]. arXiv: Learning, 2019.

作者认为, adversarial samples 和 natural samples的分布是不同, 结果二者的输出logits的分布也是不同的, 那么能否通过此来还原正确的类别呢?

在这里插入图片描述

主要内容

在这里插入图片描述

思路是这样子的, 假设原本的网络为f(\cdot), natural样本x和adversarial样本x'分别得到zz', 根据假设(发现)二者的分布是不同的. 构建一个新的判别器g(\cdot), 将zz'作为新的输入, 自然我们希望natrual样本的z的输出还是g(z)=z, 而adversarial样本的z'被转换为g(z')=z. 如果能够做到, 那么g(\cdot)就成为了一个防御手段.

实验发现, 这种想法是有效的, 且效率非常高, 甚至能够提高clean accuracy !

实验

论文没有开放代码, 个人的实验结果不是很理想, 当然可能和在小数据集上跑有关系. 另外论文没有说清楚adversarial samples是如何构造的. 因为如果是单纯通过原有的网络构造对抗样本再利用g(\cdot)恢复是不可靠的, 应该在g \circ f的基础上构造.

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。