论文阅读之 Generative Adversarial Nets
Introduction
Goodfellow 的这篇paper发布于2014年,提出了一种新的模型——生成对抗模型。这个模型其实就是训练两个相互对抗的网络,一个是训练一个生成器(Generator),另一个是训练一个判别器(Descriminator)。
这两个网络是相互对抗的,生成器的目的是尽量产生接近真实图片的生成图片,其衡量标准就是判别器,生成器要让判别器无法判断一张图片是来自真实图像的分布还是是由生成器学习到的分布。
用数学语言描述整个博弈过程的话,就是:假设我们的生成模型是,其中是一个随机噪声,而将这个随机噪声转化为数据类型,仍拿图片问题举例,这里的输出就是一张图片。是一个判别模型,对任何输入,的输出是0-1范围内的一个实数,用来判断这个图片是一个真实图片的概率是多大。令和分别代表真实图像的分布与生成图像的分布,我们判别模型的目标函数如下:
类似的生成模型的目标是让判别模型无法区分真实图片与生成图片,生成模型的目标函数如下:
那么整个的优化目标函数如下:
这个最大最小化目标函数如何进行优化呢?最直观的处理办法就是分别对和进行交互迭代,固定,优化,一段时间后,固定再优化,直到过程收敛。
一个简单的例子如下图所示:假设在训练开始时,真实样本分布、生成样本分布以及判别模型分别是图中的黑线、绿线和蓝线。可以看出,在训练开始时,判别模型是无法很好地区分真实样本和生成样本的。接下来当我们固定生成模型,而优化判别模型时,优化结果如第二幅图所示,可以看出,这个时候判别模型已经可以较好的区分生成数据和真实数据了。第三步是固定判别模型,改进生成模型,试图让判别模型无法区分生成图片与真实图片,在这个过程中,可以看出由模型生成的图片分布与真实图片分布更加接近,这样的迭代不断进行,直到最终收敛,生成分布和真实分布重合。
Theoretical Results
生成器隐式的定义了一个概率分布,下面说明优化这个目标函数能够使收敛为一个很好的估计。
我们首先考虑对于任意的, 最佳的.
对于一个给定的, 最佳的判别器是:
证明:
判别器的训练标准是,对于任意的生成器, 最大化下面式子
对任意的,函数在之间取得最大值
这样, 损失函数就可写为:
-
可以证明在的时候达到最小值.
证明: 对于, 我们可以得到, 由此可以得到. 下面证明这个值只能在的时候得到. 注意到:
上式减去, 得到:
KL表示KL-散度, , 连续型随机变量的KL散度为
JSD表示JS散度(Jensen-Shannon divergence,
KL散度或者JS距离来度量两个概率分布之间的相似性.由于两个分布间的JS散度是非零的, 而零只能在两个分布相同的时候取得. 因此是的全局最小值, 而且只能在的时候取得.
Code
- Generator
def generator(z):
G_A1 = tf.nn.relu(tf.matmul(z, G_W1) + G_b1)
G_A2 = tf.nn.sigmoid(tf.matmul(G_A1, G_W2) + G_b2)
return G_A2
- Discriminator
def discriminator(x):
D_A1 = tf.nn.relu(tf.matmul(x, D_W1) + D_b1)
D_logit = tf.matmul(D_A1, D_W2) + D_b2
D_A2 = tf.nn.sigmoid(D_logit)
return D_A2, D_logit
- Loss Function
损失函数使用了单侧标签平滑(One-sided label smoothing),没有使用的时候发现在训练过程中出现了nan,上网搜索了一番发现使用单侧标签平滑能够很好的解决这个问题。
G_sample = generator(Z)
D_real, D_real_logit = discriminator(X)
D_fake, D_fake_logit = discriminator(G_sample)
D_loss_real = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(
logits=D_real_logit,
labels=0.9 * tf.ones_like(D_real_logit)
))
D_loss_fake = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(
logits=D_fake_logit,
labels=tf.zeros_like(D_fake_logit)
))
D_loss = D_loss_real + D_loss_fake
# 注意此处使用了单侧标签平滑
# 即使用一个目标值1−α为真样本, 并且使用目标值0+β为伪样本
G_loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(
logits=D_fake_logit,
labels=0.9 * tf.ones_like(D_fake_logit)
))