论文阅读之 Generative Adversarial Nets

论文阅读之 Generative Adversarial Nets

Introduction

Goodfellow 的这篇paper发布于2014年,提出了一种新的模型——生成对抗模型。这个模型其实就是训练两个相互对抗的网络,一个是训练一个生成器(Generator),另一个是训练一个判别器(Descriminator)。

这两个网络是相互对抗的,生成器的目的是尽量产生接近真实图片的生成图片,其衡量标准就是判别器,生成器要让判别器无法判断一张图片是来自真实图像的分布还是是由生成器学习到的分布。

用数学语言描述整个博弈过程的话,就是:假设我们的生成模型是G(z|\theta_g),其中z是一个随机噪声,而G将这个随机噪声转化为数据类型x,仍拿图片问题举例,这里G的输出就是一张图片。D是一个判别模型,对任何输入xD(x|\theta_d)的输出是0-1范围内的一个实数,用来判断这个图片是一个真实图片的概率是多大。令p_rp_g分别代表真实图像的分布与生成图像的分布,我们判别模型的目标函数如下:
\max_DV(D,G) = \mathbb{E}_{x∼p_{data}(x)}[logD(x)]+\mathbb{E}_{z∼p_z(z)}[log(1−D(G(z)))]

类似的生成模型的目标是让判别模型无法区分真实图片与生成图片,生成模型的目标函数如下:
\min_G\mathbb{E}_{z∼p_z(z)}[log(1−D(G(z)))]

那么整个的优化目标函数如下:
\min_G\max_DV(D,G) = \mathbb{E}_{x∼p_{data}(x)}[logD(x)]+\mathbb{E}_{z∼p_z(z)}[log(1−D(G(z)))]

这个最大最小化目标函数如何进行优化呢?最直观的处理办法就是分别对DG进行交互迭代,固定G,优化D,一段时间后,固定D再优化G,直到过程收敛。

一个简单的例子如下图所示:假设在训练开始时,真实样本分布、生成样本分布以及判别模型分别是图中的黑线、绿线和蓝线。可以看出,在训练开始时,判别模型是无法很好地区分真实样本和生成样本的。接下来当我们固定生成模型,而优化判别模型时,优化结果如第二幅图所示,可以看出,这个时候判别模型已经可以较好的区分生成数据和真实数据了。第三步是固定判别模型,改进生成模型,试图让判别模型无法区分生成图片与真实图片,在这个过程中,可以看出由模型生成的图片分布与真实图片分布更加接近,这样的迭代不断进行,直到最终收敛,生成分布和真实分布重合。


图1

Theoretical Results

生成器G隐式的定义了一个概率分布p_g,下面说明优化这个目标函数能够使p_g收敛为p_{data}一个很好的估计。

我们首先考虑对于任意的G, 最佳的D.

  1. 对于一个给定的G, 最佳的判别器D是:
    D^*_G(x)=\frac{p_{data}(x)}{p_{data}(x)+p_g(x)}
    证明:
    判别器D的训练标准是,对于任意的生成器G, 最大化下面式子V(G, D)
    V(G,D)=\int_xp_{data}(x)log(D(x))dx+\int_xp_z(z)log(1-D(g(z)))dz\\ =\int_xp_{data}log(D(x))+p_g(x)log(1-D(x))dx
    对任意的(a,b)\in\mathbb{R^2}\setminus{\{0,0\}},函数y\rightarrow alog(y)+blog(1-y)[0, 1]之间取得最大值\frac{a}{a+b}
    这样, 损失函数就可写为:
    C(G)=\max_DV(G, D)\\ =\mathbb{E}_{x\sim p_{data}}[logD^*_G(x)]+\mathbb{E}_{z\sim p_z}[log(1-D^*_G(z))]\\ =\mathbb{E}_{x\sim p_{data}}[logD^*_G(x)]+\mathbb{E}_{x\sim p_g}[log(1-D^*_G(z))]\\ =\mathbb{E}_{x\sim p_{data}}[log\frac{p_{data}(x)}{p_{data}(x)+p_g(x)}]+\mathbb{E}_{z\sim p_z}[log\frac{p_g(x)}{p_{data}(x)+p_g(x)}]

  2. 可以证明C(G)p_g=p_{data}的时候达到最小值-log4.
    证明: 对于p_g=p_{data}, 我们可以得到D^*_G(x)=\frac{1}{2}, 由此可以得到C(G)=log\frac{1}{2}+log\frac{1}{2}=-log4. 下面证明这个值只能在p_g=p_{data}的时候得到. 注意到:
    \mathbb{E}_{x\sim p{data}}[-log2]+\mathbb{E}_{x\sim p_g}[-log2]=-log4
    上式减去C(G)=V(D^*_G,G), 得到:
    C(G)=-log4+KL(p_{data}||\frac{p_{data}+p_g}{2})+KL(p_{g}||\frac{p_{data}+p_g}{2})\\ =-log4+2\cdot JSD(p_{data}||p_g)

    KL表示KL-散度, KL(P||Q)=\sum_{i=1}^nP(i)log\frac{P(i)}{Q(i)}, 连续型随机变量的KL散度为KL(p||q)=\int_{-\infty}^{+\infty}p(x)log\frac{p(x)}{q(x)}dx
    JSD表示JS散度(Jensen-Shannon divergence, JSD(P_1||P_2)=\frac{1}{2}KL(P_1||\frac{P_1+P_2}{2})+\frac{1}{2}KL(P_2||\frac{P_1+P_2}{2})
    KL散度或者JS距离来度量两个概率分布之间的相似性.

    由于两个分布间的JS散度是非零的, 而零只能在两个分布相同的时候取得. 因此C^*(G)=-log4C(G)的全局最小值, 而且只能在p_g=p_{data}的时候取得.

Code

  • Generator
def generator(z):
    G_A1 = tf.nn.relu(tf.matmul(z, G_W1) + G_b1)
    G_A2 = tf.nn.sigmoid(tf.matmul(G_A1, G_W2) + G_b2)
    return G_A2
  • Discriminator
def discriminator(x):
    D_A1 = tf.nn.relu(tf.matmul(x, D_W1) + D_b1)
    D_logit = tf.matmul(D_A1, D_W2) + D_b2
    D_A2 = tf.nn.sigmoid(D_logit)
    return D_A2, D_logit
  • Loss Function

损失函数使用了单侧标签平滑(One-sided label smoothing),没有使用的时候发现在训练过程中出现了nan,上网搜索了一番发现使用单侧标签平滑能够很好的解决这个问题。

G_sample = generator(Z)
D_real, D_real_logit = discriminator(X)
D_fake, D_fake_logit = discriminator(G_sample)

D_loss_real = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(
    logits=D_real_logit,
    labels=0.9 * tf.ones_like(D_real_logit)
))

D_loss_fake = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(
    logits=D_fake_logit,
    labels=tf.zeros_like(D_fake_logit)
))
D_loss = D_loss_real + D_loss_fake
# 注意此处使用了单侧标签平滑
# 即使用一个目标值1−α为真样本, 并且使用目标值0+β为伪样本
G_loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(
    logits=D_fake_logit,
    labels=0.9 * tf.ones_like(D_fake_logit)
))

完整代码

Reference

到底什么是生成式对抗网络GAN?
【tensorflow学习】最简单的GAN 实现

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,033评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,725评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,473评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,846评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,848评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,691评论 1 282
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,053评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,700评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,856评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,676评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,787评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,430评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,034评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,990评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,218评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,174评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,526评论 2 343