@article{schmidt2018adversarially,
title={Adversarially Robust Generalization Requires More Data},
author={Schmidt, Ludwig and Santurkar, Shibani and Tsipras, Dimitris and Talwar, Kunal and Madry, Aleksander},
pages={5014--5026},
year={2018}}
概
本文在二分类高斯模型和伯努利模型上分析adversarial, 指出对抗稳定的模型需要更多的数据支撑.
主要内容
高斯模型定义: 令为均值向量,
, 则
-高斯模型按照如下方式定义: 首先从等概率采样标签
, 再从
中采样
.
伯努利模型定义: 令为均值向量,
, 则
-伯努利模型按照如下方式定义: 首先等概率采样标签
, 在从如下分布中采样
:
分类错误定义: 令为一分布, 则分类器
的分类错误
定义为
.
Robust分类错误定义: 令为一分布,
为一摄动集合. 则分类器
的
-robust 分类错误率
定义为
.
注: 以表示
.
高斯模型
upper bound
定理18: 令 独立采样于同分布
-高斯模型, 且
. 令
, 其中
. 则至少有
的概率, 线性分类器
的分类错误率至多为:
定理21: 令 独立采样于同分布
-高斯模型, 且
. 令
, 其中
. 如果
则至少有的概率, 线性分类器
的
-robust 分类错误率至多为
.
lower bound
定理11: 令为任意的学习算法, 并且,
, 设
从
中采样. 并从
-高斯模型中采样
个样本, 由此可得到分类器
. 则分类器关于
的
-robust 分类错误率至少为
伯努利模型
upper bound
令从一
-伯努利模型中采样得到. 令
, 其中
. 则至少有
的概率, 线性分类器
的分类错误率至多为
.
lower bound
引理30: 令 并且关于
考虑线性分类器
,
-robustness:
的
-robust分类误差率至多为
.
-nonrobustness:
的
-robust分类误差率至少为
.
Near-optimality of : 对于任意的线性分类器,
-robust 分类误差率至少为
.
定理31: 令为任一线性分类器学习算法. 假设
均匀采样自
, 并从
-伯努利分布(
)中采样
个样本, 并借由
得到线性分类器
.同时
且
, 则当
关于
的期望
-robust 分类误差至少为
.