论文学习笔记-(progressive growing of gans for improved quality, stablity, and variation)2019-06-03

progressive growing of gans for improved quality, stablity, and variation
前人方法及缺陷
Autoregressive models: PixelCNN 生成清晰的图像,但是评估较慢,而且没有潜在的表示,因为它们直接对像素上的条件分布建模,这可能限制了它们的适用性
variational autoencoders(VAE):训练简单,但是由于模型的限制,产生的模型更模糊(即使最近的研究已经有了提高)
generative adversarial networks (GAN):能产生清晰的图像,但是变化比较小,分辨率低,即使最近的研究已经有了进步,但训练还是不稳定。
Hybrid methods:结合了以上三种方法的优点,但是在生成图像质量方面和gans的差距还是很大。

gans简介

gan由两部分组成,即生成器和描述器(也就是批评器)。生成器从潜在的编码中生成一个样本——一张图片,理想状态下这张图片的分布和原始图片的分布应没有区分度。因为很难有一个函数能够评价生成的图片是不是满足要求,所以需要训练一个描述器网络。由于这两个网络是不同的,所以需要获得一个梯度使两个网络都能找到最优的优化方向。
通常情况下,生成器是我们需要的,描述器仅仅是一个自适应的损失函数,一旦生成器被训练,它就会对其进行评估。

分布距离计算方法

当我们测量训练分布与生成分布之间的距离时,如果分布没有大量重叠,梯度可以指向或多或少的随机方向,即太容易分辨了。可作为分布距离计算方法的方案有:Jensen-Shannon divergence、least squares、 absolute deviation with margin、Wasserstein distance。
本文中使用的方法:主要是 improved Wasserstein loss,也对 least-squares loss进行了实验

鉴于大分辨率图片在训练过程中的一系列问题,本文提出的方法是:在训练过程中先从低分辨率图片训练,然后加入新的层来引入高分辨率详细信息,这可以在加速训练的同时提高高分辨率下的稳定性
逐步增长的gans:
这个增量的特性使得训练过程中首先学习源图片分布的大尺度的结构,进而学习更详细的精细结构,不需要同时学习不同尺度的信息。在整个训练过程中,两个网络中的所有存在的层都是可训练的,当有新层加入时,本文中的解决方法是:将新层平滑地淡入网络中。这么做避免了新层加入对已经训练好参数(低分辨率层的参数)的冲击。

生成的图片的保持灵活性程度:现在有很多方法来估计它,例如:inception score、multi-scale structural similarity、birthday paradox、explicit tests(for the number of discrete modes discovered)
gans存在一个问题,即它只能捕捉到训练数据集变化的子集。为了解决这个问题,Salimans等人(2016)提出了称为“minibatch discrimination”的解决方案。它们的特征统计不仅考虑了单独的图片而且考虑的整个minibatch的综合特征表现,这就有利于生成的minibatch和训练集minibatch有相似的统计特性,该方案的具体实现如下:
在生成器的最后一层加一个minibatch层,该层学习一个大的张量,用来将输入激活映射到一个统计量向量,同时,该方案还针对minibatch中的每一个样本生成一个统计量的离散集,并将这个离散集拼接在minibatch 层的输出上。
本文对以上方案做了简化,简化后的方案即没有可训练的参数,也没有需要设定的超参数,具体方法如下:
1、计算minibatch中任意空间位置的每个特征的标准差
2、任意空间位置的每个特征的标准差求平均,得到一个标量值
3、复制这个标量值,并将副本拼接到minibatch中任意空间位置的特征上,产生一个格外的特征图。
以上操作可以整合成一个处理层(类似于卷积层等),并且这个层可以插入到生成器的任意位置,但是本文实验发现插入到生成器的最后一层的效果最好。

其他提高灵活性的方案有:unrolling the discriminator、repelling regularizer、multiple generators,本文没有给出这些方法和本文提出方法的对比。

生成器和对抗器的正则化

本文中用到的方法由两部分合成,即1)相等的学习率,2)生成器中特征向量逐像素正则化,它们都不包含可学习的参数

  • 相等的学习率
    本文采用均值为0,方差为1的标准正态分布来初始化权重,并且在训练过程中显式地调整权重。


    权重调整表达式

    其中,c表示每层的正则化常量
    采用相等学习率的前提是模型参数有相同大小的尺度,动态调整参数的好处就是可以使模型中所有参数具有相同的尺度。

  • 生成器中特征向量逐像素正则化
    在竞争过程中,生成器和对抗器的生成信号的幅度可能会失控,为了避免这种状况发生,在生成器中每个卷积层后将每个像素的特征向量的模都标准化为单位长度,具体实现过程中哦个使用了一个称为:“局部响应正则化”变量,如下:
    b_{x, y} = a_{x, y} / \sqrt{\frac{1}{N}\sum_{j = 0}^{N - 1}(a_{x, y}^j)^2 + \epsilon },where \epsilon = 10^{-8}
    上式中,N表示特征图的数目,a_{x, y}b_{x, y}分别为正则化前和正则化后的特征向量。
    经过正则化后,特征向量的变化并不会影响生成器的效果,在多数数据集上并没有对结果造成影响,但是它可以很有效地防止信号幅度增大。

gan结果评估——多尺度统计学相似度

MS-SSIM (Odena et al., 2017):该方法可以可靠地检测到大规模的模型崩溃,但是对颜色变化、纹理变化等丢失的细微变化无响应,并且没有以和训练集的相似度为标准评估图像的质量。

一个好的生成模型产生的图片在不同尺度上都和训练集图片有很大的局部相似度。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,233评论 6 495
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,357评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,831评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,313评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,417评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,470评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,482评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,265评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,708评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,997评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,176评论 1 342
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,827评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,503评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,150评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,391评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,034评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,063评论 2 352

推荐阅读更多精彩内容

  • (转)生成对抗网络(GANs)最新家谱:为你揭秘GANs的前世今生 生成对抗网络(GAN)一...
    Eric_py阅读 4,290评论 0 4
  • 转载自 https://mp.weixin.qq.com/s/OXXtPoBrCADbwxVyEbfbYg 25....
    _龙雀阅读 1,666评论 0 0
  • 独孤 是一种情怀, 独酒 是一种悲哀。 想要和你见面, 聊一聊心中的无奈。 走一路, 每一步都怀念, 怀念有你的爱...
    逍遥为乐阅读 292评论 0 2
  • 好的功能重复三遍! “数据——删除重复项”,可以高效删除同列中重复数据,仅留唯一值! “数据——删除重复项”,可以...
    bitterfleabane阅读 448评论 0 7
  • 晚上要上课,是部门主管让规划的H看的一本书,她在一周内看完,并做了讲义,选择在今晚上课,我们抗议过,为什么样不能上...
    梅子Mey阅读 345评论 2 2