一、概述
将⼀维高斯分布推⼴到多变量中就得到了高斯网络,将多变量推⼴到无限维,就得到了高斯过程。高斯过程是定义在连续域(时间/空间)上的无限多个高斯随机变量所组成的随机过程。具体的形式化的定义如下:
对于时间轴上的随机变量序列,是一个连续域,如果,,满足,那么就是一个高斯过程(Gaussian Process)。
上面的定义中称为index,是随机变量。
一个高斯过程可以有两个函数,即均值函数和协方差函数来确定:
举个例子来说,下图的时间轴(也就是定义中的连续域)代表了人的一生,这里假设人能活100岁,从这个连续域里任意取多个时刻都会对应了一个高斯随机变量:
这里的每个随机变量可以认为是一个人在一生中这个阶段的表现值,服从一个高斯分布:
在这个人人生的每一个阶段,如果他比较努力,他的表现可能就比均值高,如果不努力可能表现就比均值低,将每个高斯分布采样的样本点连起来就是高斯过程的一个样本:
二、核贝叶斯线性回归-权重空间角度
之前的贝叶斯线性回归博客:贝叶斯线性回归|机器学习推导系列(二十三)
对于线性的数据,我们可以直接应用贝叶斯线性回归的方法,而对于非线性数据,可以尝试使用核方法将低位数据扩展到高维空间,然后再应用贝叶斯线性回归。类比支持向量机的核方法,如果最后的结果只和一个核函数,也就是关于的内积有关,那么就可以应用核方法,同样的在非线性的贝叶斯线性回归回归中,如果将数据拓展到高维空间后后验的均值和方差都只与一个核函数有关,那说明将核方法应用在贝叶斯线性回归中是可行的。
对于线性数据的预测来说,有:
对于非线性数据,要使用核方法,首先要对其进行低维到高维的非线性转换:
上面的式子中,均值和方差都存在,这一项可以通过伍德伯里矩阵恒等式(Woodbury Matrix Identity)求出来,该恒等式如下:
按照伍德伯里矩阵恒等式的形式,我们可以将对应为:
代入恒等式求解得到:
将代入就能,就能得到均值和方差,不过这里的均值直接代入比较复杂,可以通过对做一些变换来得到均值:
由此求得了的均值,将带入方差可以计算得到方差:
因此最终得到的概率分布如下:
通过上面式子的红色部分可以看出的分布只与这样的项有关,如果可以证明这是一个核函数(能够表示成一个内积的形式)的话就说明对于非线性数据来说是可以引入核技巧来将数据映射到高维空间然后再应用贝叶斯线性回归的。现在来做以下定义:
因此这是一个核函数。
核贝叶斯线性回归也就是高斯过程回归,这个从参数的角度进行推导的过程是高斯过程回归的权重空间角度。
三、从权重空间角度到函数空间角度
对于应用了核方法的贝叶斯线性回归,满足:
这里给定先验满足一个高斯分布:
是一个随机变量,那么也是一个随机变量,对于不同,就是不同的随机变量,就是一些随机变量的组合。接下来,对于,我们看一下它的均值和协方差:
显然的协方差是一个核函数,类比高斯过程的定义,也就相当于index,每个对应一个随机变量,也就相当于,只不过这里和有明确的函数关系,而和没有,另外的协方差也满足一个核函数,这说明就是一个高斯过程,这也说明了核贝叶斯线性回归为什么就是高斯线性回归。
求解高斯过程回归的方法分为权重空间和函数空间两种,上一节的权重空间角度的方法我们关注的是权重,而函数空间的方法关注的是,下一小节就介绍一下函数空间角度的求解方法。
四、函数空间角度
已有数据如下:
对于,满足:
对于,满足:
解释一下方差矩阵的由来,对于方差矩阵对角线上的元素:
对于方差矩阵非对角线上的元素:
预测问题也就是对于给定的新的数据,需要求解对应的。
我们把和拼接成一个向量,并且按照上面得到方差矩阵的方法简单推一下就可以得到这个拼接起来的向量的分布:
而对于预测问题,我们要求的是这个概率,其实也就是,也就是上面拼接起来的向量的一个条件概率分布,而求解高维高斯分布的条件概率分布的方法在高斯分布|机器学习推导系列(二)这一篇中已经推导过了,有现成的公式可以套用:
对应到上面的拼接向量也就是:
套用公式得到概率:
再加上噪声就得到的分布:
显然比起权重空间角度的方法,从函数空间角度出发更容易求解这个问题。