正则化

我们首先来看看我们的问题:我们有采样数据,假定是这么一个样子:X:(x_1,y_1),(x_2,y_2),...,(x_n,y_n)\quad x_k\in R^n,y_k\in R 我们试图对这一堆数据进行处理,我们的目的很单纯,我们试图找到y_kx_k之间的关联方式y_k=f(x_k)。现在我们要怎么找到它,我们要用这些采样数据,他们有一个专门的名:Training Set(训练集)。我们训练的目的是为了要把握规律,我们不仅仅是把训练集里的事全搞清楚,而且我们希望还有推广能力(泛化能力Generalization):对于我们没有看见的数据也能做相应处理。如果我们就以训练集作为我们的目标的话,这个问题其实根本不需要考虑。这个问题其实已经解决了,因为有一种技术叫插值(Interpolation)。你这些数据应当是在空间中散列的一些点。那么我是可以用插值来找到支配这些点的规律的。我可以用非常明确的函数形式,比方说多项式Polynomial。但是他的复杂度是取决于训练集的复杂度的,准确地讲,如果训练集有n个数据,他就是一个n阶多项式(n-orders)。n个方程n个未知数,解出来就是了。何况有一种多项式叫拉格朗日,这个多项式形式甚至直接是已知的。

但是学习,没有这么简单。原因在于,我们考试的题目和平时练习的题目不一样。所以你还需要具备推广能力才行,而推广能力怎么产生出来呢?

我们大体一画,大家就会明白,你这样的一个插值结果,尽管说,你在训练集上获得了100%的收益,但是这并不是你想要的东西。因为显而易见他并没有把握住数据的规律。而且这个东西是严重的不稳定(Unstable / Non-robust)

什么叫做不稳定?你这个插值完成了以后,假如你这个点有一小点的变化,你必须要重新插,而你重新插出来的情况和你一开始插出来的情况,两者之间可能存在着巨大的差异。这就使得我们不敢用这样的技术。因为我们谁也说不准,在采样当中究竟有没有噪声(Noise)。换句话讲,你看到的一定是真实的吗?当然不一定。

第二个问题:你一旦这么插值,你的这个系数往往会过大,产生大系数(Large Coefficient)。这也会产生一种不稳定,跟上一种的区别在于,这会儿多项式已经确定下来了,下一个数据再来的时候,如果新的数据当中也存在一些噪声、畸变,或者一些不好的影响,那么这些不好的影响在我的多项式中就会被充分地放大

这就是典型的过拟合(Overfit)。做题作死了。

我们的生活当中真正有意义或者有价值的部分可以概括为两句话,一句话是:弄清楚某个东西是怎么一回事,另一句话是弄清楚某个东西是怎么一回事。头一句话,我们弄清楚的那个东西对于我们而言是未知的,但是已经被别人搞明白了,我们要通过学习,来弄清楚它是怎么一回事,增长我们的知识。而第二句话我们去弄清楚的东西是这个世界上没人明白的东西。那么你要把他弄清楚。事实上你如果想要毕业,你在第二个问题上总要做那么一点点。考试只是一种比较被动的为了分配比较紧张的教育资源而不得已采用的非常low的做法。

那么,我们怎么克服过拟合呢?有人说,诶你看那条绿线应该比较好。注意:这个只是一个表象。这有一个前提:基于样本数据!换句话讲我们现在做的所有事情都是基于样本数据进行的。而样本数据和我们真正想研究的那个背后的规律之间是否有很密切的联系没人知道。因此才有了一件非常有趣的事,叫做"No free Lunch "Theorem。

"No free Lunch "Theorem

在这里我们假定L:Loss \ Function \quad L(f(x),y) 。表示我如果用f这样的模型去把x与y联系在一起,我会承受多大的损失。现在我们把这个损失分成两个角度来看:
①. 基于样本的角度Empirical:C_1[f_X] = \frac{1} {n}\sum_{k=1}^nL(f_X(x_k),y_k)
我们希望基于样本做出来的模型具有某种最优性:f_X(x)=\underset{f}{\arg \min}\ C_1[f_X] 这个损失是我们能在样本数据上几乎能做的一切,但是从理论上讲,我们还有另外一种形式
②. 理论角度Theoretical:C_2[f]=\int _{x \times y}L(f(x),y)p(x,y)dxdy
做积分,但这就存在一个问题:这个分布p(x,y)只能来自上帝视角,没人知道。我们对这个分布的认识,仅仅能够从样本数据来获得,而样本数据所反映的一定只是这个分布的一部分,甚至是一小部分,甚至是很偏的一部分,甚至什么都反应不了。因为你的采样不可能完全没有偏差(Smaple Bias)。就比如你身边没有人出门,但是火车站和机场永远人来人往,你不能基于你身边的采样就说火车和飞机没用。因为对你没用,不等于对别人没用。采样一定是有偏差的。

当然我们这里可以给一个定义:f^*(x)=\underset{f}{\arg \min}\ C_2[f]这就是我们最优的那个关系or模型。但他只是一个标杆,基本达不到。我们能争取的只有①。

我现在做了一个模型:f(x)-f^*(x)=f(x)-f_X(x)+f_X(x)-f^*(x)

这两部分分别叫做:

  • 估计误差(Estimate):f(x)-f_X(x)
  • 逼近误差(approximate)f_X(x)-f^*(x)

我们能做的只有左边这一部分,右边这部分我们根本动不了:采样数据本身与我们真实情况之间的偏差,是你根本没有办法去触及和改变的,这就叫“no-free-lunch”。在这一点上大家都在瞎子摸象,谁也别笑话谁。任何一种建模方法都不可能是universal最优的。机器学习其实是个低科技,算法其实早就有了。统计学上的算法改个名就都到机器学习里来了,所以那些东西几十年前大家就已经明白了,我们现在缺的是什么,就是数据。对于自动驾驶而言,目前Google 的自动驾驶应该是做的最好的,特斯拉其实不太行,Google 它强在哪,他就是数据多,因为做得早,他有着大量的采样数据,当然人们认为,他那点采样数据对于把机器训练得向人开车开得这么好,也还差得非常非常远。
数据才是根本:“no-free-lunch”恰好在说明这一点,后一部分误差是你自身数据造成的,你如果不能在数据上取得突破,你光在算法上想办法,没意义。当然我们这里没有去体现这两部分误差哪部分更加主导,但是实践的经验告诉我们,后面这个更要命。是因为我们目前对算力的掌控迫使我们不可能把数据搞得特别多,这是我们自身的条件约束。而我们基于样本数据,最好的也只能做到f_X(x)

我们下面来计算这个东西:C_2[f]=\int _{x \times y}L(f_X(x),y)p(x,y)dxdy
根据我们的定义,他就是把我们从数据产生的那个最优解,代到了我们理想的理论误差上去。这个X自身是随机的。我们这么一代入,这个误差就是有随机性的。因此很自然的,我们希望能够对他进行期望:E_X(C(_2[f_X])) = E_X\int _{x \times y}L(f_X(x),y)p(x,y)dxdy = E_X(E_{x,y}L(f_X(x),y ))

这里我们对L,还有x和y之前的那个上帝视角的那个联系做一下假定:

  1. 假定这里是标准的回归模型:Regression modely=f_0(x)+\varepsilon,\quad E(\varepsilon)=0, Var(\varepsilon)=\sigma^2
  2. 我们假定这个L是我们熟悉的二次函数L(a,b)=(a-b)^2

于是我们就会得到:E_XE_{x,y}(f_X(x)-y)^2

这里有三个随机变量,这三个随机变量之间有什么关系我们需要搞清楚:用图来表示:


y是由小x和e共同决定的。采样数据X应当是由小x导出的,

有了这个关系,对接下来的计算会有一定帮助。
下面我们来计算这个期望,我们先条件住谁?这确实是一个问题,注意:我们条件住的是这个小xE_x(E_{X,y}((f_X(x)-y)^2|x))

接着展开:=E_x(E_{X,y}([f_X(x)^2+y^2-2f_X(x)·y]|x))

=E_x[E_X(f_X^2(x)|x) + E_y(y^2|x) - 2E_{X,y}(f_X(x)·y|x)]

=E_x[Var_X(f_X(x)|x)+(E_X(f_X(x)|x))^2 + Var(y|x) + (E_y(y|x))^2 -2E_{X,y}(f_X(x)·y|x)]

随着我们的展开,他们的意义慢慢明确起来:我们一项一项看:

这个Var(y|x)是什么?如果这个看不清楚,没关系,我们看这项:E_y(y|x),这个是条件期望,我们讲过,他是均方意义下的最优估计,换句话讲,这个条件期望不是别的,就是我们在上帝视角上能够做的最好的那个f^*(x),也就是我们这里的这个f_0,那么Var(y|x)就等于Var(\varepsilon)=\sigma^2,是一个定值,不会随我们的分析而改变。因此这两项,我们就给看明白了。E_y(y|x) = f^*(x)

这个\sigma^2提醒我们这样一件事情:即便我们有上帝视角,即便我们已经知道了那个背后的分布是什么,我们也不可能做的100%的准确,因为你模型当中本身有不确定性。本身有随机项,如果我们进一步假定为高斯,即便你连这都知道了,你能把误差做到0吗?不可能 。我告诉你有一个随机变量是高斯分布,你猜一下这个随机变量等于几?你哪猜得出来,这里高斯自身的随机性是你不能去克服和穿越的。所以我们要强调误差当中有这一部分是不会被改变的。

那么这个(E_X(f_X(x)|x))^2是什么?我们在数据层面上能做到的最好的模型就是f_X(x),因为这里包含两部分随机性,我把里面那部分给掐住。我专门看数据这一部分,这个时候我里面的x已经被条件住了,相当于已经没有随机性了,不会影响我们对数据的这个看法,我专门看数据,那么我希望在数据上面做一个平均,然后这样平均出来的模型,是不是可以认为是某种意义上你能够做到的最好的估计。因为你能够做到的最好的模型他一定依赖于数据。现在你在所有可能的数据上做平均,那也就是你能做到的最好的模型,这个模型,他的误差我们写在这了:Var_X(f_X(x)|x)

我们再看一看这儿:2E_{X,y}(f_X(x)·y|x),在已知x的情况下,大X跟y什么状态啊?看看那个图,如果小x已经知道了,没随机性了那么大X和y之间的连接就被掐断了。

额,大家都学过马尔可夫,马尔可夫有一个基本的小结论,假设A是过去,B是当下,C是未来,那么我在知道当下的情况下,这个未来跟过去就没有联系了P(C|BA)=P(C|B)

他有一个等价形式:P(CA|B)=P(C|B)P(A|B) 假如,我把当前给条件住,那么未来跟过去一定是独立的。 他为什么能独立呢?因为过去跟未来本来他们就是由当前来单向联系的,你这个单向联系中间一切断,两者就是条件独立的。同样的道理:如果我们把小x给条件住了,我们的大X跟小y条件独立。
因此就有:E_{X,y}(f_X(x)·y|x) = E_{X,y}(f_X(x)|x)E_{X,y}(y|x)和我们在马儿可夫中的感觉非常的类似。

有了这些知识,现在我们就能够把他们总结在一起了:
注意到:(E_X(f_X(x)|x))^2 + (E_y(y|x))^2 -2 E_{X,y}(f_X(x)|x)E_{X,y}(y|x)

=[E_X(f_X(x)|x)) - f^*(x)]^2

是个完全平方。所以最终原式可以写成:E_x(\sigma^2 + Var_X(f_X(x)|x)+[E_X(f_X(x)|x)) - f^*(x)]^2)

=\sigma^2 + Var_X(f_X(x))+[E_X(f_X(x)) - f^*(x)]^2)

其中,第一个是上帝来了也没办法克服的一部分误差,刚才解释过了,我们关键看后头两个,第二个是一个方差,第三个是一个偏差。一个是这个模型的方差,一个是这个模型与我们上帝视角模型最优解之间的偏差。所以我们在这里谈到的是Bias-Variance Tradeoff

Bias-Variance Tradeoff

我们以前遇到过的是这样子的:E(\theta - \hat \theta) = E(\hat \theta - E(\hat \theta)) + (E(\hat \theta)- \theta)^2 前面这一项是随机误差,我们更希望让随机误差更小,宁可牺牲掉一点系统误差,所以我们未必要追求无偏性,因为无偏性代表后头这一项是0,所有的压力都压到前面这一项来了。我们这里如果能够tradeoff,我们宁可把后面牺牲掉一点,因为后面是可以整体性地纠偏的,而前面往往更加难以对付 。

那么参照之前的之前的经验,我们应该牺牲掉哪一部分:牺牲后面。牺牲后面是什么意思?意思是我这个模型可以搞得稍微简单一点。因为我这个模型搞得简单一点就是我们在这里做了一些牺牲、我们在偏差这里做了点放松,而我们想换来的是前头一项可以降得更低,因为模型简单了,我们控制起方差来更容易。这和我们刚才所做的描述就对应起来了:我们为什么不愿意用多项式插值,因为多项式插值模型太过复杂,你是可以通过多项式插值让这个偏差变得很小,但是你把前面这一项放得非常大,得不偿失。我们为什么喜欢用线性的,是因为线性它往往前面控制起来非常容易,没有比线性更简单的了。

因此,在之前版本的bias-variance tradeoff里面我们希望去牺牲的是无偏性,我们希望换来的是整体MSE的可控,在今天这个版本的bias-variance tradeoff里面,我们希望牺牲掉的是模型自身的复杂程度,我们换来的是对这个模型估计的方差的可控。两者道理几乎是一致的。

如果大家能够对这件事情有一定的认识,我们再开始说我们今天要说的第三件事情,那就进入到我们的主题了,那就是正则化

正则化(Regularization)

我现在,想对我的模型做一些简化:,那这个简化怎么做,就变得很有意思了,原始情况下,我都是极小化我的损失的,没有任何的约束:\underset{f_X}{\arg \min} \frac{1}{n}\sum_{k=1}^nL(f_X(x_k),y_k)

那么现在我要简化的话,很显然,我是要加约束的,我要约束我的模型必须落在某一类模型当中:s.t.f_X(x)\in F

这个事情,他可以进一步明确为:\underset{\theta}{\min} \frac{1}{n}\sum_{k=1}^nL(f_X(x_k,\theta),y_k)这里我们做了参数化。是因为F是一个泛函概念,函数集合或者函数空间,我们不习惯。我们比较习惯普通的欧式空间,怎么把函数空间转换为欧式空间呢?很简单,我们只要把函数参数化就可以了:通过参数化,我们把寻找最优的那个函数,变成寻找最优的参数,那么相应的,我们函数出现在某个函数空间,也就可以转变为参数属于某个可行域:s.t.\theta \in \Omega

我们继续,我们要选择一个合适的损失:均方损失。当然这个损失还可以有别的选择方式,根据你的问题,根据你的背景,都没问题。
\underset{\theta}{\min} \frac{1}{n}\sum_{k=1}^nE(f_X(x_k,\theta)-y_k)^2. \quad s.t.\theta \in \Omega

更进一步地,来把我们的模型给落地,你的参数化模型没有给出具体的样式,我们考虑简单情况:线性的\underset{\theta}{\min} \frac{1}{n}\sum_{k=1}^nE(\theta_k^T x_k-y_k)^2. \quad s.t.\theta \in \Omega

再来一步,我们现在终于要触摸到正则化的核心了,你的可行域怎么定?我们刚才谈到过多项式插值两个问题:第一个是不稳定,是因为它没有考虑到数据当中有可能存在着噪声;第二个是大系数,这数一大,这事儿就不太对。因此我们想要做正则化,我们想要把我们的这个模型参数限制在一定范围之内,能够对他有所控制,我们就应该限制什么?——限制这个参数的大小,限制大小的方式其实有很多,我们这提一种最自然容易想到的方式,它的二次模有界\underset{\theta}{\min} \frac{1}{n}\sum_{k=1}^nE(\theta_k^T x_k-y_k)^2. \quad s.t.||\theta||_2^2 \leq r这个结果来源于Tikhnov,所以学术界统称为:Tikhnov Regularization

现在我们来算这个正则化:我们假定:X = \begin{pmatrix} x_{1}^T \\ x_{2}^T \\ \vdots\\ x_{n}^T \end{pmatrix} \quad y = \begin{pmatrix} y_{1}^T \\ y_{2}^T \\ \vdots\\ y_{n}^T \end{pmatrix}

\Rightarrow \sum_{k=1}^n(x_k^T\theta_k-y_k)^2=(X\theta-y)^T(X\theta-y)

\Rightarrow 优化问题:\underset{\theta}{\min}(X\theta-y)^T(X\theta-y). \quad s.t.||\theta||_2^2 =\theta^T\theta\leq r
我们的求解策略是现在已经非常熟悉的拉格朗日乘子:L(\theta, \lambda) = (X\theta-y)^T(X\theta-y) + \lambda(\theta^T\theta-r). \nabla_{\theta}L(\theta,\lambda)=\nabla_{\theta}(\theta^TX^TX\theta-y^TX\theta-\theta^T X^T y+y^Ty+ \lambda \theta^T\theta-\lambda r) =2X^TX\theta-x^Ty-X^Ty+2\lambda \theta=0 \Rightarrow\theta=(X^TX+\lambda I)^{-1}X^Ty

矩阵向量求导补充知识:

  • \nabla_{\theta}(\theta^TA\theta) = (A+A^T)\theta
  • \nabla_{\theta}(A\theta) = A^T
  • \nabla_{\theta}(\theta^TA) = A

相比于我们熟悉的最小二乘解\theta_{OLS}=(X^TX)^{-1}X^Ty,差距在哪?加上的\lambda I这一部分,在信号处理里面叫做对角加载技术(Diagonal Loading),主要是为了解决这个X缺秩的问题,正常X^TX想要求逆的话,X必须得是列满秩,否则你的数值稳定性大打折扣,你这个逆可能逆出很大的数,在信号处理里头,你一看到很大的数,你心里就要紧张,因为那多半是算的有问题,即便不是算错,也是处在数值稳定性相当糟糕的这么一个区域内,因此我们希望把他平移下来。我们不希望看到很大的数,和我们的正则化有着异曲同工的地方:我们选择直接在对角线上进行扰动,你这一扰动,矩阵的条件数马上就好了。只不过对角加载的基本想法是从数值稳定性出发的,并不是从我们的正则化出发的。我们这里正则化主要是为了想让模型更简单,从而让整体具有比较好的泛化特性。两个角度,得到的结果是一致的。一个是数值稳定性,一个是推广能力;一个涉及到的是怎么让我们的计算的结果不产生巨大的波动,一个涉及到的是我们怎么样让我们估计的结果方差能够变小。但是两者最终汇聚到的是同一个点。都是做这么一个工作,非常有意思,并且这一个点,还会被另外的方向汇聚到,我们待会就知道了。

强烈建议大家去学矩阵论,如果你想做和信号处理相关的研究工作的话,你上三门课就够了:矩阵论、随机过程还有现代信号处理,有必要的话,再去听一门优化课,特别是凸优化。我感觉就齐活了。

现在我们要仔细地看一眼,我们这一加一定牺牲掉什么了,最小二乘解是无偏的,可是你加上这一项一定有偏,恰如我们tradeoff说的一样,我们把偏差牺牲掉了 ,我们要的是方差变小。我们要习惯偏差的损失,因为方差的损失你承受起来更重。

我们下面引入一种工具:奇异值分解(SVD:Singular Value Decomposition)它是一个十分重要的矩阵计算技术,其重要性在信号处理里头特别得到彰显。因为矩阵分解这一直是我们学习线性代数的理想,我们为什么希望能够做矩阵分解,是因为矩阵这个元素,我们操作起来感觉很不方便,我们之所以感觉很不方便的原因很简单,是因为矩阵多数情况下不是对角阵。如果是对角阵,那我们操作起来是不是方便多了:矩阵相乘就是对角元之间相乘就行了,矩阵乘矢量就是对角线元跟矢量直接乘就行了。你操作起来方便多了。我们想尽各种办法,来让我们的矩阵可以通过某种分解得到对角阵,人们为了能够做到这一点,事实上认识是在不断梯次逼近的

  1. 如果矩阵是对称的,一定可以做分解:
    A=A^T\Rightarrow A=U\Lambda U^T=\sum_{k=1}^n \lambda U_kU_k^T UU^T=U^TU=I,\quad \Lambda=diag(\lambda_1,\lambda_2,...,\lambda_n)

  2. 如果矩阵是正规阵(Normal):AA^T=A^TA \Rightarrow A = U^{-1}\Lambda U 注意:\Lambda依然是对角阵,但是U的正交性没了取而代之的是求逆,这里比对称阵更加的一般

  3. 对于通常意义上的方阵,只能是分块对角A=U^{-1}\Lambda U ,\quad \Lambda =\begin{pmatrix} J_1 & \\ & \ddots &\\ & & J_k \end{pmatrix}每一个块都有:J_k=\begin{pmatrix} J_1 & \\ 1& \ddots &\\ & \ddots 1&J_k \\ \end{pmatrix} 这个叫若当型标准型(Jordan Canonical Form)J_k称为Jordan Block(若当采用的是法语音,是个法国人)。

我们可以看到随着我们不断地往回退,矩阵的要求不断地放松,我们对角化的成果也就不断地模糊起来了,从最开始的合同变换,到相似变换,到没法再做真正意义上的对角化。

我们的奇异值分解终于要登场了,奇异值分解是对上述结果的一个本质性的推进,因为他可以应用于非方阵:A\in R^{m \times n}\Rightarrow A=U\Sigma V^T 由于此时我的U和V彻底地脱离了关系(前面的分解里头,U和后面的“V”他们的关系是极端密切的,要不是互为转置,要不是互为逆,现在我把两者的关系彻底割裂开了,一下子自由度就重新回来了。)所以我的U和V性质都可以非常好:他们都是正交的:U^TU=UU^T=I , VV^T=V^TV=I\Sigma=\begin{pmatrix} \Lambda &0 \\ 0 & 0 \\ \end{pmatrix} \Lambda \ diag

我们对于矩阵分解的追求来源于我们希望处理对角阵的一种原始的期望,那么我们在追求矩阵分解的过程当中,我们对矩阵的要求是在不断放松的,因此我们能够拿到的矩阵分解的结果事实上也是在不断恶化的,但是到了奇异值分解这突然有了一个转折向上,就是因为我们把整体的要求放松了:前后两个矩阵不做关联。尽管前后两个矩阵没有关联,但是奇异值分解仍然是相当好用。

我们从θ的这个解开始说起:\theta_{Ridge}=(X^TX+\lambda I)^{-1}X^Ty ,Ridge(岭) Regression
就好像把山脊给抬起来了一样。
假定X是列满秩的,\Sigma=\binom{\Lambda}{0} \Rightarrow \Sigma^T\Sigma = \Lambda^2
奇异值分解:X=U\Sigma V^T \Rightarrow X^TX=V\Sigma^T U^TU\Sigma V^T = V\Sigma^T\Sigma V^T = V\Lambda^2V^T \Rightarrow(X^TX +\lambda I)^{-1} = V(\Lambda^2+\lambda I)^{-1}V^T \Rightarrow(X^TX +\lambda I)^{-1}X^Ty = V(\Lambda^2+\lambda I)^{-1}V^TV\Sigma^T U^Ty = V(\Lambda^2+\lambda I)^{-1}\Sigma^T U^Ty

我们令\stackrel{\sim}{\theta}_{Ridge} = V^T\theta_{Ridge},\quad \stackrel{\sim}{y}=U^Ty
于是\stackrel{\sim}{\theta}_{Ridge} = (\Lambda^2+\lambda I)^{-1}(\Lambda \quad0) \stackrel{\sim}{y}
\Rightarrow \stackrel{\sim}{\theta}_{Ridge}(i) = \frac{\lambda_i}{\lambda_i^2+\lambda}·\stackrel{\sim}{y} ,\ (i = 1,...,m,m<n)

我们重点看\frac{\lambda_i}{\lambda_i^2+\lambda},你从这个点里头,你一下就能看清楚这个\lambda作为我们正则化的参数它所起的作用:如果\lambda=0,就变成\frac{\lambda_i y}{\lambda_i^2}这不就是分母是个归一化,分子在相关吗?因为你\lambda=0 是标准的最小二乘,那么这说明标准的最小二乘在经过了坐标变换的前提下(我们引入了SVD,SVD其实就是再做坐标变换)它本质上就是我们熟悉的这个结果。其实(X^TX)^{-1}X^Ty形式上跟它一模一样。为什么\lambda_i没消掉?因为原本他是要求期望的,因为他是一个随机变量:\frac{E(\lambda_i y)}{E(\lambda_i^2)}

现在\lambda来了,凡事看极端,如果\lambda特别大的时候,你整个的这个θ值,他的取值与这些\lambda_i、\stackrel{\sim}{y_i}们关系就不大了:是因为我们的拉格朗日里面\lambda相当于一个权重(X\theta-y)^T(X\theta-y) + \lambda(\theta^T\theta-r).在目标函数里面,是前面比较重要,还是后面?如果你\lambda巨大无比,那么前面基本上是无关紧要的。当\lambda越来越大的时候,每一个权值就慢慢趋同了。

正常情况下,你就要看\lambda_i的情况,如果\lambda_i比较大,\lambda的作用还不明显,如果\lambda_i比较小,意味着这些个分量在X当中不是那么大,他们就不是特别重要,那么他们很有可能就是一些噪声,他并不反映X的主导信息,也不反应X的显著特征。那么这些噪声很糟糕:因为如果他很小,它的平方更小,然后平方是放在分母上。他就会导致这个θ值特别大,由于均方意义下的线性估计自身的特点,导致了我的模型反而对你很重视!而原本我们希望它的值应当特别小才对!我们应当怎么纠正?我们就靠\lambda正则化!

换句话说,当我们在研究均方意义下的线性估计的时候,发现我们真正求的这个线性系数,它比较大。那么按照你的想象,他应该比较重要,反应的是比较重要的特征才对。错了,真未必!他的值很大,只能说明你计算的这个结果很大,而且很有可能是因为这个\lambda_i比较小造成的。我们必须要通过调参来把这种事消除掉。正则化就是一种很聪明的调参:我们通过\lambda的合理确定是可以有效的克服我们数据当中存在的这种问题所导致的我们系数计算出现的偏差。为了让大家看到这一点,我们才引入了奇异值分解。因为只有你看到了这一点,你才能真正把正则化理解到位,至少把Tikhonov这个正则化理解到位。

好,现在我们来说,Tikhonov正则化并不是唯一的正则化。显然不是啦。你要想把参数变小,二范数只是选择之一。还有什么?我们可以选择一范数:就是绝对值加起来:||\theta||_1 = \sum_{k=1}^n|\theta_k|\leq r \quad (LASSO) Least Absolute Shrinkage Selection Operation。发明人是:Tibshrani 1996年。想理解清楚LASSO,我们需要引入凸分析。这个放到之后再讲。但是今天我们可以从一个非常有趣的角度来对LASSO算法产生一点初步的认识:

他为什么叫一个Selection?

假设θ是个两维的:\theta=(\theta_1, \theta_2),与此同时,我们的目标函数关于θ是一个二次曲线。一般情况下,因为我可行域是圆,所以二次曲线过来的时候,跟我可行域碰到的位置,肯定是比较随意的。并没有什么特殊。这个是我们的Tikonov。

我们再来看看LASSO:
发现了吗?他很容易碰到坐标轴上的点,而坐标轴上的点,对应着什么含义?它对应的就是稀疏。因此LASSO是会导致稀疏解的。所以LASSO的优化结果可以从另一个角度看:它是对我们这个模型各个分量进行了一个选择(Selection)

我们没有刻意的谈到过变量选择问题,是因为我们并没有对变量的重要性做过认真的评估,你做线性的模型,你相当于是用θ这样的系数去组合了一堆元素,做线性组合,那么这些元素哪些是重要的,那些是次要的你评估过吗?如果你能够对这件事有所评估的话,肯定大大有利于你的模型构建,因为次要的你就别让他进来,他是来捣乱的。但是你这样的评估单独做肯定又是一番负担。而LASSO就非常好,他直接替你做了。因为优化出来的结果就已经选择过了,他是稀疏的。因此,LASSO在机器学习里头收到充分重视不是没有理由的。他是自动地完成了选择(Automatic)

还有人把LASSO和Tikonov正则化放到一起搞:\alpha||\theta||_2+\beta||\theta||_1。还有个特别好听的名:弹性网格(Elastic Net)

甚至还有这样的正则化,更加强化稀疏性,选择特征更加明朗。相当于||\theta||_q,\quad q\leq 1。但是这玩意不凸。1次模是凸的底线,而它是非凸的,优化起来很难搞。现实的意义价值并不大,个人认为。

其实正则化除了控制系数大小这个作用以外,还有别的的用途。(事实上这类正则化有一个统一的名字叫Weight Decay
正则化是一种思想,通过对某些因素进行控制来达成我们的目的,达成什么样的目的?这里的正则化是为了减小我们模型的方差。微分方程里头其实也有正则化这一说法,它的正则化是为了让我们的解变得更加锁死,更加的光滑,他也把这个叫做正则化。所以正则化的思想是一种非常宽泛的思想,千万不要把他看得太过狭窄。

再说两种正则化思想:
CNN的训练里面有一种叫Dropout。你在训练的时候不是老收敛不了吗?或者说你很快就收敛了(你不要觉得收敛了是好事啊,那一般是局部极小值或者是overfit了),所以你为了能够保持一种弹性,随机地选取一部分节点跟weight,把他们从网络里扔掉。练一会就扔一些,练一会就扔一些,别舍不得,扔掉更有助于健康。Dropout这篇2015年的文章到现在被引用一万多次了,尽管显得有一些没理论,甚至显得有一些没道理,但是真的是好用,每一个像Tensorflow,Pytorch这样的深度学习框架里面都有Dropout。那他到底是在干什么?他是在随机地做Selection。为什么他在形式上不能表现得Formal一点呢?原因很简单,神经网络他是一个复杂的非线性体系。比如说他有这个activation function,然后还有Pooling...所以它里面的非线性操作非常多。在那么多非线性的操作下,你完全没有办法能写一个正儿八经的看得清楚的目标函数和正则化约束,完全做不到。所以它能有效果就不错了。

还有一种是做活体检测:熊猫图案和印着熊猫的布。这在刷脸支付里非常重要(要不然照片就能骗过它的话,那还得了啊) 有人在熊猫图案上弄了点噪声(胡椒面噪声)立马就识别成布了,这意味着你在刷脸的时候光线得要特别好,如果光线不好,信噪比就下降,在暗处胡椒面噪声的特性是非常强的,那么你就有可能识别成照片。如果真的识别成照片,那就说明它根本没有活体检测能力。那如果我们想避免熊猫的这个错误,我们可以怎么办?有一个很常见的技术,叫噪声注入(Noise Injection)。我有意给其中的一部分熊猫的照片加上噪声。我要让那个机器知道,加上噪声的这些图片仍然是熊猫,让他刻意的去注意到加进去的这个噪声和那个布所呈现的纹理是有差异的。可以把这种差异给强化出来。大家注意:噪声注入和我们今天说的Tikhnov 正则化:(X^TX+\lambda I)^{-1}X^Ty之间有着奇妙的联系:Tikhnov本身就是噪声注入!你的\lambda I就是白噪声的相关阵。所以,你本质上是在用\stackrel{\sim}{X} = X+\varepsilon来取代X进行训练 \Rightarrow \stackrel{\sim}{X }^T\stackrel{\sim}{X} = X^TX + \varepsilon^T \varepsilon

我们之前说过了,我们还可以从另外一个角度理解Tikhnov 正则化。我们不但认为他是个正则化,或者对角加载,我们还可以认为他就是噪声注入。因此反过来说,噪声注入我们是可以通过今天所建立起来的理论进行理解跟认识的。相比于Dropout。噪声注入的理论基础还更加的坚实一点,因为他可以认为是我们Tikhnov正则化的一个非常自然的延伸。

好了,总结一下,正则化对于我们做好一个估计是非常关键的。大家无论是在信号处理还是机器学习的各个领域都能看到正则化的影子。希望大家能够很好地领会正则化的思想并且在今后的学习工作中加以应用。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,233评论 6 495
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,357评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,831评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,313评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,417评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,470评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,482评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,265评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,708评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,997评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,176评论 1 342
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,827评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,503评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,150评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,391评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,034评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,063评论 2 352

推荐阅读更多精彩内容