标准化流(Normalizing Flow)(二):现代标准化流技术(公式)

0. 交代故事

我在下面的教程里教你干一件很酷的事儿:

你将学到使用MAF、IAF和Real-NVP等标准化流来变形二维高斯分布,而形成复杂的图形“SIGGRAPH”。就像……拉扯橡皮泥

在教程的上半部分,你学到使用标准化流,把高斯分布这类地摊货分布,“变形”为高大上的概率分布。你还亲自使用PReLU搭建了小型可逆神经网络,实现了一个简单的链式二维仿射双射函数。
不过,上次的全连接网络只用了两层隐含层,搭建的流弱爆了。更糟的是,非线性激活函数是单调的、分段线性的。这样一来,网络只能在原点附近,稍微地扭捏数据分布的形状【译者按:1)原文用的是manifold流形,对于非从业者来说,只需知道数据在空间中形成一定形状就可以了2)因为激活函数在原点附近是非线性的】。这个流想要实现更高级的变换,就完全不给力。比如把各向同性的高斯变成下面双模式的“双月”数据。

image.png

幸好最近的研究发明了几个更强大的标准化流。下面我们就去探索其中的几个技术。

1. 标准化流之 自回归(autoregressive)模型和MAF

自回归概率密度估计技术,比如 WaveNetPixelRNN,是用来学习联合概率密度p(x_{1:D})的。该技术将联合概率密度,分解为以为条件概率密度的乘积,这里的x_i依赖前i-1个数据的取值:
p(x) = \prod_i{p(x_i \,|\, x_{1:i-1})}

1.1 学习阶段

上式中的条件概率密度大都有可学习的参数。例如,常见的选择是单变量高斯分布,自回归的概率密度p(x_{1:D})就有两个参数,均值和标准差。这两个参数取决于先前的变量x_{1:i-1}
p(x_i \,|\, x_{1:i-1}) = \mathcal{N}(x_i \,|\,\mu_i, (\exp\alpha_i)^2)
\mu_i = f_{\mu_i}(x_{1:i-1})
\alpha_i = f_{\alpha_i}(x_{1:i-1})
这种方法基于一个简单粗暴的假设:每个变量都依赖于先于其出现的变量,而不是后来的变量。拍脑门就能想明白这不(全)是真的:顶上的像素和底下的像素能有啥因果关系?不过(令许多研究者惊讶的是),这东西产生出的图像效果居然还不错!

1.2 采样阶段

采样阶段,我们从标准高斯N(0,1)采D个"噪声变量"u_{1:D},进而依次地生成所有样本:
x_i = u_i\exp{\alpha_i} + \mu_i
u_i \sim \mathcal{N}(0, 1)
自回归采样技术可以这么理解,把(从标准高斯分布\mathcal{N}(0, \mathbb{I}))采样得到的噪声变量转换为一个新的分布形式,或者说新的分布形式是标准高斯分布的转换分布(TransformedDistribution)。

1.3 搭建一个流

有了这个认识,我们可以堆叠多个自回归模型,搭建一个标准化流。这样做的好处是,你可以更改流中任意的一个双射函数的输入顺序x_1,...x_D,这样就可以在某一环节(因为不合时宜的排序)效果不佳,而在另一个环节弥补。
掩模自回归流(MAF)实现了一个条件高斯自回归模型。这里对于任何一个分布x_i:

image.png

灰色的单元x_i是当前待计算的单元,蓝色的单元表示其依赖的单元。\alpha_i\mu_i通过计算x_{1:i-1}传递给网络(分别是涂上了洋红色、橘色的圆圈)。即使变换只有尺度变换和平移变换,这些变换也错综复杂地依赖先前的变量。对于第一个单元x_1,其\mu\alpha不依赖于x和u,而设置为可学习的变量。
注意,之所以如此这般地设计变换函数,是因为计算u=f^{-1}(x)的时候,不必要再计算f_\alphaf_\mu的逆。由于变换仅有尺度变换和平移变换,我们只需要逆运算这两个变换:u = (x-f_\mu(x))/exp(f_\alpha(x))。双射函数的前传和反传,仅仅取决于f_\alpha和f_\mu,这样我们就可以在f_\alphaf_\mu的网络内部使用非线性激活函数(如ReLU)和非方形矩阵操作
MAF模型的梯度反传可以这样来评估密度函数:
distribution.log_prob(bijector.inverse(x)) + bijector.inverse_log_det_jacobian(x))

image.png

2. 时间复杂度和MADE

自回归模型和MAF训练较快,因为计算下面D个似然概率
p(x_1), p(x_2\,|\, x_1), ... p(x_D\,|\, x_{1:D-1}))
可以利用GPU的并行技术,一次性地用D个线程计算。这里假设计算任务,如在计算SIMD向量化用CPU或GPU并行计算时那样,资源没有上限。
从另一方面看,自回归采样较慢,因为你必须等到x_{1:i-1}都算出来,才能计算x_i。如此只能利用一条线程采样D个序列,而无法发挥并行计算的优势。
另一个问题是,在并行的反传计算时,我们要不要使用两个不同的(具有不同的输入长度的)网络,来计算\alpha_i\mu_i?这样做不够高效,尤其考虑到D个网络学到的表示(learned representation)需要共享(只要不违背自回归的依赖关系)。在“密度估计的掩模自编码器”(MADE)一文中,作者给这个问题提供了一个不错的解决方案:使用一个网络,把所有的\alpha\mu同时计算出来,而用来掩模的权重保证了自回归的有效性。
这一技巧也大大简化了反传的计算,从所有的x,只需一步即可计算出所有的u(D个输入,D个输出)。这就比处理D个不同的网络容易的多((D+1)*D/2个输入,D个输出)

3.Inverse Autoregressive Flow (IAF)

可逆自回归流(IAF)的非线性平移和尺度变换操作,其输入是前一时刻的噪声变量,而不是输入前一时刻的数据采样。
x_i = u_i\exp{\alpha_i} + \mu_i
\mu_i = f_{\mu_i}(u_{1:i-1})
\alpha_i = f_{\alpha_i}(u_{1:i-1})

image.png

前传(采样)速度很快:对于所有的x_i,并行D个线程可以一次算出来。IAF也可以使用MADE框架高效地实现并行。
不过,要是你想估计某一新数据附近的概率密度,就需要恢复所有的u,过程很长:首先计算u_1 = (x-\mu_1) * \exp(-\alpha_1),然后逐次计算u_i = (x-\mu_i(u_{1:i-1})) * \exp(-\alpha_i(u_{1:i-1}))。好在计算这一趟以后,IAF生成的数据的(log)概率直接就得到了。因为我们已知u的情况下,不需要再通过反向计算x得到u。
细心的你可能已经察觉到了,要是把底下标注x_1,... ,x_i,顶层标注u_1,...,u_i,IAF和MAF的反传计算没有差别。对应而言,IAF的反传计算恰好也就是MAF(把x和u交换一下)。所以在tensorflow实现的时候,双射函数的类没有区别,而且逆转特征来交换正反传的操作很容易:
iaf_bijector = tfb.Invert(maf_bijector)
IAF和MAF有互补的计算考虑——MAF训练快采样慢,IFA训练慢采样快。对于训练网络,需要做的密度估计操作更多,采样操作较少,所以通常在学习密度的任务中选择MAF更为合适。

4.平行波网络(Parallel Wavenet)

显而易见的问题是,IAF和MAF能否合二为一,达到最优性能?比如快速的训练和采样。
答案是:当然能!DeepMind实验室公布的平行波网络正是这么做的:MAF快速训练一个产生式网络,IAF在这个网络的“启发”下最大化采样的似然概率。回顾一下IAF,计算外来数据的概率密度很慢(比如训练集中的数据),但是计算采样数据u_{1:D}的密度很容易,这样就省了反传计算。只要约束“学生”IAF和“老师”MAF的概率分布差异,就可以完成训练。

这项研究在标准化流的领域里非常重要——最终实现的效果是,实时的音频合成的速度比采样的方法快20倍,而且已经在谷歌助手之类的产品上线了。

5.NICE and Real-NVP

最后请看Real-NVP,你可以认为是IAF双射函数的变种。
训练时,在NVP的“配对层”(coupling layer),依次地调整标号d=1,2,...,D-1。像IAF一样,x_{d+1}的尺度变换和平移变换取决于u_d的值。所不同的是,x_{d+2}, x_{d+3}, … x_{D}都只依赖于u_{d}, 所以单次的网络前传就可以得到\alpha_{d+1:D}\mu_{d+1:D}。【译者按:这里可能的意思是,算出来x以后,求个逆就得到\alpha\mu
对于x_{1:d},这些单元“放行”了所有信号,并被设置为u_{1:d}。所以可以认为Real-NVP是一种特殊的MAF双射(当\alpha(u_{1:d}) = \alpha(x_{1:d}))。

image.png

因为尺度平移变换后,整个层的统计量可以从x_{1:d}或者u_{1:d}一次前传得到,NVP可以在一次前传和后传完成所有的计算(也就是说,采样和估计都很快)。MADE架构就不再需要了。
从实验效果来看,Real-NVP比MAF或IAF都要差,使用同样多的层数NVP在我的例子中(比如SIGGRAPH形)也更差。Real-NVP和IAF在二维图形的情况下几乎是等价的。唯一的区别是在第一个单元,IAF通过尺度平移变换得到,不依赖于u_1,而Real-NVP对第一个单元不作处理。
Real-NVP是NICE双射的后续工作。NICE只有平移变换并假定\alpha=0。因为NICE不做尺度变换,ILDJ始终是个常数!

6.批正则化的双射函数(batch normalization bijector)

Real-NVP 的论文中提到许多新奇的分布,其中之一是批正则化的双射函数,用来稳定训练过程。在传统的观念中,批正则化应用在训练神经网络的场景中,前传数据服从统计意义上的中心集中、方差是对角阵的高斯分布,批数据是正态分布的统计特性(running mean,running variance)通过指数移动平均值积累。测试时,积累的统计数据用来做标准化处理。
在标准化流中,训练时批正则化用在双射函数的逆的计算中bijector.inverse,在测试时积累的统计数据要去标准化(bijector.forward)。具体而言,批正则化双射函数这样实现:
反传
1.计算现有变量x的均值和方差
2.更新当前的均值和方差
3.用当前的均值方差批正则化当前数据。
前传
1.用当前的均值方差去标准化,得到数据的分布。
归功于TF双射函数,这一过程可用这些代码来实现:

class BatchNorm(tfb.Bijector):
    def __init__(self, eps=1e-5, decay=0.95, validate_args=False, name="batch_norm"):
        super(BatchNorm, self).__init__(
            event_ndims=1, validate_args=validate_args, name=name)
        self._vars_created = False
        self.eps = eps
        self.decay = decay

    def _create_vars(self, x):
        n = x.get_shape().as_list()[1]
        with tf.variable_scope(self.name):
            self.beta = tf.get_variable('beta', [1, n], dtype=DTYPE)
            self.gamma = tf.get_variable('gamma', [1, n], dtype=DTYPE)
            self.train_m = tf.get_variable(
                'mean', [1, n], dtype=DTYPE, trainable=False)
            self.train_v = tf.get_variable(
                'var', [1, n], dtype=DTYPE, initializer=tf.ones_initializer, trainable=False)
        self._vars_created = True

    def _forward(self, u):
        if not self._vars_created:
            self._create_vars(u)
        return (u - self.beta) * tf.exp(-self.gamma) * tf.sqrt(self.train_v + self.eps) + self.train_m

    def _inverse(self, x):
        # Eq 22\. Called during training of a normalizing flow.
        if not self._vars_created:
            self._create_vars(x)
        # statistics of current minibatch
        m, v = tf.nn.moments(x, axes=[0], keep_dims=True)
        # update train statistics via exponential moving average
        update_train_m = tf.assign_sub(
            self.train_m, self.decay * (self.train_m - m))
        update_train_v = tf.assign_sub(
            self.train_v, self.decay * (self.train_v - v))
        # normalize using current minibatch statistics, followed by BN scale and shift
        with tf.control_dependencies([update_train_m, update_train_v]):
            return (x - m) * 1. / tf.sqrt(v + self.eps) * tf.exp(self.gamma) + self.beta

    def _inverse_log_det_jacobian(self, x):
        # at training time, the log_det_jacobian is computed from statistics of the
        # current minibatch.
        if not self._vars_created:
            self._create_vars(x)
        _, v = tf.nn.moments(x, axes=[0], keep_dims=True)
        abs_log_det_J_inv = tf.reduce_sum(
            self.gamma - .5 * tf.log(v + self.eps))
        return abs_log_det_J_inv

ILDJ的数学形式可方便地从逆函数的对数形式导出(参考单变量的例子)。

7.代码在此

归功于JoshDillon和谷歌贝叶斯流研究组的努力,在MADE架构下的Masked Autoregressive Flow 来实现u的快速训练的代码已经写好了。
我创建了一个复杂的二维分布,是利用这个混合脚本点云“SIGGRAPH”的形状。我们搭建了数据库、双射函数、转换分布,方法和教程一中非常类似,所以就不重复了,你可以参看这个Jupyter notebook 文件。这个代码可以通过MAF、IAF、Real-NVP实现,使用或不使用批正则化,重构双月形和“SIGGRAPH”形。
一个细节很容易被忽略,如果你忘记重置变量顺序,这个代码就不能正常工作。这是因为不重置顺序的话,所有的自回归分解就只能学到p(x_1 | x_2)。幸好,Tensorflow有一个换序双射函数,可以专门实现这一功能。
这里可视化了流的学习过程,从一而终。看到它,我想起一台太妃糖搅拌机

image.png
image.png

8.教程总结

Tensorflow让标准化流的实现变得简单,自动收集所有雅各比矩阵行列式的操作让代码变得简单易读。如果你要选择一个实现标准化流的方案,要同时考虑前传和后传的快捷性,以及平衡流的表达能力和ILJD的计算速度。
在该教程的第一部分,我介绍了标准化流的动机:我们需要更强大的分布函数,用于强化学习和产生式模型。从大背景来看,在变分推断和隐式密度估计模型成功应用的今天,能够追踪变换的标准化流模型是否是人工智能应用(如机器人、架构估计)中最适合的模型,尚不明确。即便如此,标准化流仍是你工具箱中非常好用的工具,它们已经在现实应用中发挥作用,比如谷歌助手团队开发的实时的产生音频的模型。
即便像标准化流这样的显式的密度估计模型能方便地通过最大似然法训练,这些模型的作用远不止于此。它们和VAE、GAN这类模型是互补的。任何模型中的高斯分布直接就换上一个标准化流,比如VAE的先验分布和GAN的隐变量。举个例子,这篇论文用标准化流灵活选择变分先验,Tensorflow分布的论文提到VAE中标准化流做PixelCNN的解码器。平行波网络通过最小化KL散度训练一个IAF“学生”模型。
标准化流最具启发的性质之一是每一步计算都是可逆的(即具有函数的定义清楚的逆)。这就意味着,如果我们想做一次反传计算时,不必在前传时预先存储激活值,而是重新计算一遍前传激活值。(存储这些值有可能代价很大。)在任务分配的过程很长的情况下,我们可以使用计算的可逆性来“恢复”过去的每一个选择状态,从而限制了计算时的内存消耗。这个主意在论文 RevNets中有所体现,正是受NICE双射函数运算可逆的启发。我回忆起电影Memento中的情节,主角不能存贮记忆了,于是通过可逆计算来记住事情。
谢谢阅读!

image.png

Code on Github

9.致谢

非常感谢 Dustin Tran, Luke Metz, Jonathan Shen, Katherine Lee, Samy Bengio 等人预先检查阅读了该教程。

10.引用文献和推荐阅读

11.译者补充与提问解答

我很喜欢这个教程,清晰易懂,所以把它全文翻译成中文。考虑到中英文表达习惯的差异,译文并不完全是原文的原句(原词)对应,但意思(大概)还原了原文的意思。
这里补充几个问题与其解答,也欢迎读者向我(或原作者)提问!

问题1:这篇论文Parallel WaveNet:Fast High-Fidelity Speech Synthesis涉及到了并行化,MAF作为teacher模型,IVF作为student模型,我始终不是很理解这个方法的原理。

回答1:
这个问题拆解为两部分。第一,为什么要让MAF做教师,IAF做学生;第二,并行化的训练是怎样完成的。
============================================
第一,原文提到了MAF训练快采样慢,IAF训练慢采样快。所谓训练就是从数据算出模型参数的过程,采样就是从模型参数产生新数据的过程。
+++++++++++++++++++++++
对于MAF,训练的时候,把所有的数据送进两个网络,f_\alphaf_\mu。在允许并行的情况下,一步就可以算出来所有的\alpha_{2,...,n}\mu_{2,...,n},结合采样得到的所有的u_{1...n},就可以算出\hat{x}_{1,...,n}=u_{1...n}exp(\alpha_{1,...,n})+\mu_{1,...,n}。(注意这里\alpha_1\mu_1是超参,不是从x_1计算出来的)然后就可以去训练f_\alphaf_\mu的参数,这个过程非常快。
采样的时候,我们手里拿着所有f_\alphaf_\mu的参数,并\alpha_1\mu_1,从x_1=u_1exp(\alpha_1)+\mu_1\alpha_2=f_\alpha(x_1)\mu_2=f_\mu(x_1),开始算,x_2=u_2exp(\alpha_2)+\mu_2\alpha_3=f_\alpha(x_1,x_2),\mu_3=f_\mu(x_1,x_2)...这样一直算到x_n算完,这个过程是串行的而不能做到并行。
注意,采样阶段,u_i = (x_i-f_\mu(x_i))/\exp(f_\alpha(x_i))这个式子里,u_i其实就是p(x_i)
+++++++++++++++++++++++
对于IAF,训练的时候,从超参\alpha_1\mu_1开始计算得到u_1 = (x-\mu_1) * \exp(-\alpha_1),把它们送进两个网络,f_\alphaf_\mu\mu_2 = f_{\mu}(u_{1})\alpha_2 = f_{\alpha}(u_{1})。继续计算u_2 = (x-\mu_2) * \exp(-\alpha_2)。其余的以此类推u_i = (x-\mu(u_{1:i-1})) * \exp(-\alpha(u_{1:i-1}))。用所有的u_{1...n}、\alpha_{1...n}和\mu_{1...n},就可以算出\hat{x}_{1,...,n}=u_{1...n}exp(\alpha_{1,...,n})+\mu_{1,...,n}。然后就可以去训练f_\alphaf_\mu的参数。这个过程不能并行。
采样的时候,我们手里拿着所有f_\alphaf_\mu的参数,采样基础分部产生u_{1...n},然后一步就可以算出所有的\alpha_{1,...,n}和\mu_{1,...,n},于是x_{1,...,n}=u_{1...n}exp(\alpha_{1,...,n})+\mu_{1,...,n}。这个过程是非常快。
+++++++++++++++++++++++
============================================
Parallel WaveNet训练过程是这样的:
1.训练好一个MAF,运行它的训练过程。而后把这个MAF当做一个机器,吃进去的是测试数据x^j,吐出来它的似然概率p_t(x^j)。这个过程是通过反向计算\alpha\mu实现的。因为只产生一个概率,并不考虑对前面节点的依赖,所以速度很快。
2.采样基础网络,送进IAF里,可以计算出p_s(x^i)。注意这里的IAF是没有训练好的,Parallel WaveNet第二个阶段就是用来训练IAF。
3.取概率的对数,计算KL距离。
============================================
要彻底理解这个框架,要对最大似然法和EM算法有个大概了解。我贴一张图,从知乎拷贝的。侵权就删:

image.png

作者:WilliamY
链接:https://www.jianshu.com/p/db72c38233f3
來源:简书
简书著作权归作者所有,任何形式的转载都请联系作者获得授权并注明出处。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,542评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,596评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 158,021评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,682评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,792评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,985评论 1 291
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,107评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,845评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,299评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,612评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,747评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,441评论 4 333
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,072评论 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,828评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,069评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,545评论 2 362
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,658评论 2 350

推荐阅读更多精彩内容