1.摘要
作者提出,在当前生成对抗网络发展如此迅猛的情况下,生成器仍然属于一个黑盒子的性质。我们对于其图像生成的变化因素的控制和理解不够,对于的作用仍不能更多的理解。并且,对于各种生成器进行定量的评估仍然没有很好的方法。
文章中的style更多的指的生成图像的属性,只是类似的结构经常被用在style transfer上面,所以取名StyleGAN
该文章主要有三个贡献:
- 从风格转换的文献中受到启发,提出了一种用于生成对抗网络的生成器结构,这种新的结构可以在无监督的情况下自动学习高等属性的分割(例如在人脸数据集上的pose和身份一致性)和生成图像中随机的变化(例如人脸数据集中的头发,毛孔等)。并且支持直觉的,指定尺度的图像合成的控制。新的生成器表现良好并且更容易进行disentangle。
- 为了更好的评估插值质量和解耦性质,提吃醋了两种全新的自动的方式可以适用于所有的生成网络。
- 推出了一个新的,图像丰富并且高质量的人脸数据库。
2.
Style生成的图像
2.Style-based generator
传统的生成器和基于风格的生成器的结构的比较如下:
图(a):Traditional Generator和图(b)Style-based Generator
自顶向下我们可以看到两者的如下区别:
1).
2).
3). 每一层的结构不一样,style-based generator 的每层会将生成的分辨率上升两倍(像素数量上升两倍,即第一层的分辨率为44第三层就上升为88)。如图所示,第一层的输入为一个可以学习的