SVM(Support Vector Machine)-1-linear

SVM(Support Vector Machine)-1-linear

@(study)[Maxe, markdown_study, LaTex_study]
[TOC]

综述

这一节纯理论,前方贼高能!!!!
在算法实现的角度上来说,我们需要先感性认识这个算法怎么work的

很直接地,向量机就是在找一条可以把在同一个空间的两样东西分开的线,数学一点的图:


show2

所有不懂的数学符号和定义,在文末都有blog说明

线性可分支持向量机

由上面的讨论,有定义:

超平面

\omega^T x+b=0
相应的分类决策函数是:
y=f(x)=sign(\omega^T \bullet x+b=0 )
取转置这一点就可以知道,\omega定义的是这条线的法向量.由高数的知识可知道.在法向量定义下,可以确定一个高一维的平面(特征)
 
为了方便理解,我会一直用线这个名词代替超平面这个名词,但是千万不要简单地以为向量机的维度就是一二维的!
 
同时可以带来后面定义的便利:

函数间隔和几何间隔

当线f(x)=sign(\omega^T \bullet x+b=0 )确定的时候,每一个点对线的距离为:
r=\omega\bullet x_i+b
在这个基础上,加上我们的分类决策函数的结果:
\widehat{\gamma}_i = y(w^Tx + b)
\widehat{\gamma}被称为函数间隔(functional margin)
这样做有两个好处:

  1. 可以从符号看到分类的正确性
  2. 可以从大小看到分类的确信度

定义关于训练数据集T的超平面的函数间隔为:T中所有样本点的函数间隔最小值:
\widehat{\gamma} =\min \limits_{i=1,...,N} \widehat{\gamma}_i
为什么这样定义的话,后面讲到支持向量的时候会讲到.
由于\omegab在同时扩大或缩小时,会让\gamma线性改变
 
所以,通过归一化处理之后,可以得到:
几何间隔(geometrical margin)
\gamma_i=\frac{\widehat{\gamma}_i}{||\omega||}
同理:定义关于训练数据集T的超平面的几何间隔为:T中所有样本点的几何间隔最小值:
\gamma=\frac{\widehat{\gamma}}{||\omega||}
显式表达是:
\gamma_i= y_i \big (\frac{\omega}{||\omega||} \bullet x_i+\frac{b}{||\omega||} \big )

归一化之后,这个间隔指的才是直观意义上点到线的距离
定义这两个东西的一个很直观的意义是为了定义损失函数,此处省略,好好想想吧

最大间隔分类器

看图上的两条虚线(Gap),他存在的意义就在于,当我的Gap越大,就证明我这条线和dataset的距离越远。
这样分类的效果就会越好,因为换个角度说,每一个分类的值域就会被这条线和间隔限制得越来越小。
可以用数电的噪声容限这个概念来帮助理解一下.

明显这是个几何参量定义,所以用几何间隔定义下,有最大间隔分离超平面:
\max \limits_{\omega , b} \gamma
s.t. \quad \gamma_i= y_i \big (\frac{\omega}{||\omega||} \bullet x_i+\frac{b}{||\omega||} \big ) \ge \gamma

最大间隔分离超平面具有存在唯一性,此处不作证明

显然,这里换成函数间隔来往下走是更好的选择:
\max \limits_{\omega , b}\frac { \widehat{\gamma}}{||\omega||}
s.t. \quad \gamma_i= y_i \big ( \omega \bullet x_i+{b}\big ) \ge \widehat{\gamma}
因为前面讲过函数间隔拥有线性变化的性质,可以知道函数间隔并不会影响上面公式的解,所以不妨令\widehat{\gamma}=1

这种做法称为硬间隔最大化,指的是gap的不可变性

为了后续的公式化简,最大值也作了一点trick:
\min\limits_{\omega , b} \frac12 ||\omega||^2 \tag{1.1}
s.t. \quad y_i \big ( \omega \bullet x_i+{b}\big ) -1 \ge 0 \tag{1.2}
从数学的角度上,这是一个凸二次(w,b)规划(convex quadratic programming)问题

支持向量和间隔边界

显然,在训练完之后,这条线是不是只会和线(或Gap)上的点有关系,所以就称满足

  • \quad y_i \big ( \omega \bullet x_i+{b}\big ) -1 = 0的数据称为支持向量(Support Vector)

所以SVM的中文读法是支持向量 \quad,而不是支持 \quad 向量机 ,重点!!!

两条虚线之间的距离称为间隔(margin),虚线称为间隔边界

  • gap=\frac2{||\omega||}

work it out (linear)

回到凸二次(w,b)规划(convex quadratic programming)问题,显然,从高数我们就可以知道,在这种情况下,我们应该引入

拉格朗日算子

在单不等式约束中:
\mathcal{L}(x,y,\lambda) = f(x,y) + \lambda\bullet(g(x,y)-c)
显然,在k项不等式约束中:
\mathcal{L}(x,y,\lambda_1,...,\lambda_k) = f(x,y) - \sum_{i-1}^k\lambda_i g_i(x,y)
求解可以参考高数书一(下),9.45.46

其中,f为原函数,g为约束函数.\lambda 为拉格朗日算子

故代入(1.1)和(1.2)得:
\mathcal{L}(w,b,\alpha) = \frac{1}{2}||w||_2^2 - \sum\limits_{i=1}^{k}\alpha_i[y_i(w^Tx_i + b) - 1] \; \quad ,\alpha_i \geq 0
\mathcal{L}(w,b,\alpha) = \frac{1}{2}||w||_2^2 - \sum\limits_{i=1}^{k}\alpha_i y_i(w^Tx_i + b) +\sum_{i=1}^k a_i\; \quad ,\alpha_i \geq 0

在规划有解的前提下,由拉格朗日对称性,函数的优化可以转化为极大极小问题:

\psi(a)=\underbrace{max}_{\alpha_i \geq 0} \;\underbrace{min}_{w,b}\; \mathcal{L}(w,b,\alpha)


推导:

(1)\underbrace{min}_{w,b}\; \mathcal{L}(w,b,\alpha)

由于要求最小值,变量为w,b,不妨分别对他们求偏导并置零:
\frac{\partial \mathcal{L}}{\partial \omega} = 0 \;\Rightarrow \omega = \sum\limits_{i=1}^{k}\alpha_iy_ix_i

\frac{\partial \mathcal{L}}{\partial b} = 0 \;\Rightarrow \sum\limits_{i=1}^{k}\alpha_iy_i = 0
版本一(抄来的):
\begin{align*} \psi(\alpha) & = \frac{1}{2}||w||_2^2 - \sum\limits_{i=1}^{m}\alpha_i[y_i(w^Tx_i + b) - 1] \\& = \frac{1}{2}w^Tw-\sum\limits_{i=1}^{m}\alpha_iy_iw^Tx_i - \sum\limits_{i=1}^{m}\alpha_iy_ib + \sum\limits_{i=1}^{m}\alpha_i \\& = \frac{1}{2}w^T\sum\limits_{i=1}^{m}\alpha_iy_ix_i -\sum\limits_{i=1}^{m}\alpha_iy_iw^Tx_i - \sum\limits_{i=1}^{m}\alpha_iy_ib + \sum\limits_{i=1}^{m}\alpha_i \\& = \frac{1}{2}w^T\sum\limits_{i=1}^{m}\alpha_iy_ix_i - w^T\sum\limits_{i=1}^{m}\alpha_iy_ix_i - \sum\limits_{i=1}^{m}\alpha_iy_ib + \sum\limits_{i=1}^{m}\alpha_i \\& = - \frac{1}{2}w^T\sum\limits_{i=1}^{m}\alpha_iy_ix_i - \sum\limits_{i=1}^{m}\alpha_iy_ib + \sum\limits_{i=1}^{m}\alpha_i \\& = - \frac{1}{2}w^T\sum\limits_{i=1}^{m}\alpha_iy_ix_i - b\sum\limits_{i=1}^{m}\alpha_iy_i + \sum\limits_{i=1}^{m}\alpha_i \\& = -\frac{1}{2}(\sum\limits_{i=1}^{m}\alpha_iy_ix_i)^T(\sum\limits_{i=1}^{m}\alpha_iy_ix_i) - b\sum\limits_{i=1}^{m}\alpha_iy_i + \sum\limits_{i=1}^{m}\alpha_i \\& = -\frac{1}{2}\sum\limits_{i=1}^{m}\alpha_iy_ix_i^T\sum\limits_{i=1}^{m}\alpha_iy_ix_i - b\sum\limits_{i=1}^{m}\alpha_iy_i + \sum\limits_{i=1}^{m}\alpha_i \\& = -\frac{1}{2}\sum\limits_{i=1}^{m}\alpha_iy_ix_i^T\sum\limits_{i=1}^{m}\alpha_iy_ix_i + \sum\limits_{i=1}^{m}\alpha_i \\& = -\frac{1}{2}\sum\limits_{i=1,j=1}^{m}\alpha_iy_ix_i^T\alpha_jy_jx_j + \sum\limits_{i=1}^{m}\alpha_i \\& = \sum\limits_{i=1}^{m}\alpha_i - \frac{1}{2}\sum\limits_{i=1,j=1}^{m}\alpha_i\alpha_jy_iy_jx_i^Tx_j \end{align*}

版本二:
由于意识到对单个y_i,a_i来说,他们都只是一个实数而已,所以,他们的矩阵的转置等于他们本身:
\begin{align*} \psi(\alpha) & = \frac{1}{2}||w||_2^2 - \sum\limits_{i=1}^{N}\alpha_i[y_i(w^Tx_i + b) - 1]\\&= \frac{1}{2}\omega^T \omega - \sum\limits_{i=1}^{N}\alpha_i y_i(w^Tx_i + b) +\sum_{i=1}^N a_i \\ & = -\frac{1}{2}\sum\limits_{i=1,j=1}^{N}\alpha_iy_i \alpha_jy_j(x_i^T\bullet x_j) -\sum_{i-1}^N a_iy_i\Big( \big( \sum_{j=1}^N a_j y_j x_j \big)\bullet x_i +b\Big) + \sum\limits_{i=1}^{N}\alpha_i \\ & = \sum\limits_{i=1}^{N}\alpha_i - \frac{1}{2}\sum\limits_{i=1,j=1}^{N}\alpha_i\alpha_jy_iy_jx_i^Tx_j \end{align*}

(2)对psi(a)=\underbrace{max}_{\alpha_i \geq 0} \;\underbrace{min}_{w,b}\; \mathcal{L}(w,b,\alpha)对a求极大,即是对偶问题
把上面的结果加个负号,可以将a的极大改成极小:

\phi = \underbrace{min}_{\alpha} \frac{1}{2}\sum\limits_{i=1}^{N}\sum\limits_{j=1}^{N}\alpha_i\alpha_jy_iy_j(x_i \bullet x_j) - \sum\limits_{i=1}^{N} \alpha_i
s.t. \sum_{i=1}^Na_iy_i=0 \quad ,a_i \geq 0

KKT条件

KKT条件是说最优值必须满足以下条件:

  1. L(a, b, x)对x求导为零;

  2. h(x) =0;

  3. a*g(x) = 0;

KKT的意义是:非线性规划问题能有最优化解法的充分必要条件,主要是因为,很明显,超平面在维度上去之后,显然不是一个线性分类问题,所以要先解决低维向高维转换的可能性

由于篇幅问题,可以参考参考文献的KKT条件-知乎 和 extra-3,会有很好的解释

事实证明,用拉格朗日算子可以实现.
由h(x)=0可得(就是要你去翻博客..哼):
a_i^*(y_i(\omega^*\bullet x_i+b^*)-1)=0

result

自此,我们已经就可以得到结果啦:
\omega^*=\sum_{i=1}^N a_i^* y_ix_i
选择一个正分量a_j^*>0
b^*=y_j -\sum_{i=1}^N a_i^* y_i(x_i\bullet x_j)
这样,线性可分支持向量机硬间隔就全部结束了

软间隔

由于上一节说了,我们取了一个\widehat{\gamma}=1来简化之后,推出公式就易如反掌了,但是现在我们来考虑一些实际一点的问题:异常点

异常点

因为在硬间隔中我们就规定了函数间隔是1,面对这种异常点,往往硬间隔在训练的时候是不会自动去除而严重影响结果的.
如图所示,如果不放宽间隔的话,训练出来的结果就是那一条粗虚线,但是如果扩大了间隔之后,可以得到类似红色线这样良好的线

所以这里的重点在于,引入一个松弛变量,放宽间隔:
y_i(w\bullet x_i +b) \geq 1- \xi_i
作为代价,考虑目标函数,
min\;\; \frac{1}{2}||w||_2^2 +C\sum\limits_{i=1}^{m}\xi_i
其中,C>0称为惩罚参数,一般是调参党需要手动给出的参数

work it out

这次其实和上一节的唯一差别就是,拉格朗日算子由两个(w,b)改变到三个(w,b,\xi)
同样的,对L(w,b,\xi)求\xi方向的偏导
\frac{\partial L}{\partial \xi} = 0 \;\Rightarrow C- \alpha_i - \mu_i = 0 \quad ,\mu_i>0
这个限制条件给a_i设置了上限,在明确这点之后,显然,计算出来的结果和上一节是一摸一样的.
改变在于,限制条件从a_i \geq 0变成了:
0\leq a_i\leq C

边界条件

a_i=C的时候,就证明,a_i是被C- \alpha_i - \mu_i = 0 \quad所限制了。在这个情况下,我们来看看会发生什么:
如果α=C,说明这是一个可能比较异常的点,需要检查此时ξi:

  • 如果0≤ξi≤1,那么点被正确分类,但是却在超平面和自己类别的支持向量之间。如图中的样本2和4.

  • 如果ξi=1,那么点在分离超平面上,无法被正确分类。

  • 如果ξi>1,那么点在超平面的另一侧,也就是说,这个点不能被正常分类。如图中的样本1和3.

a=c

合页损失函数

线性支持向量机还有另外一种解释如下:
 \underbrace{ min}_{w, b}[1-y_i(w \bullet x + b)]_{+} + \lambda ||w||_2^2
 目标函数的第一项[1-y_i(w \bullet x + b)]_{+}称为经验损失或经验风险
 
 其中L(y(w \bullet x + b)) = [1-y_i(w \bullet x + b)]_{+}称为合页损失函数(hinge loss function),下标+表示为:
 [z]_{+}= \begin{cases} z & {z >0}\\ 0& {z\leq 0} \end{cases}

自此线性情况就讲完了.

序列最小最优化算法SMO

这个是用来求解a的,理论来说是现实实现svm最需要的掌握的算法(让求a的速度变快),
但是因为超出了这篇博客的内容,就留到下一篇来写吧
可以在参考文献中看到推荐blog:

https://zhuanlan.zhihu.com/p/29212107

http://www.cnblogs.com/jerrylead/archive/2011/03/18/1988419.html

非线性概述

  1. 在线性不可分的时候,我们可以通过核函数将数据映射到核函数对应的特征空间(比如二维转到三维)中.
  2. 在特征空间中,使用线性学习器分类
  3. 就好像是平面的数据,用某个规则突起其中一些特征数据,然后用一个线性平面去分类,然后将这个线性平面和三维特征空间的交线再投影回原来的平面中
  4. 其实说了这么久的核核核,其实就是变换对,功能是特征空间的变换,所以只要符合是正定核,即对称函数的kernel就能被称为一个核
  5. 由线性泛函的观点来说,这样的变换可以快速地变换自变量来推出公式:
    没变换前:
    f(x)=\sum^n_{i=1}a_i y_i<x_i,x>+b
    变换后:
    f(x)=\sum^n_{i=1}a_i y_i<\phi (x_i),\phi (x)>+b
    其中:
    \phi(\bullet) 为映射 ,<>为向量内积

参考文献

理解SVM的三层境界
范数
s.t.
拉格朗日乘子
拉格朗日对偶性
KKT条件-知乎
SVM-wiki
sign符号函数
泛函分析
非线性分析
SMO
SMO2
extra-1
extra-2
extra-3
extra-4

《统计学习方法》,李航著;


想我尽早更新的方法之一

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,258评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,335评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,225评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,126评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,140评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,098评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,018评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,857评论 0 273
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,298评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,518评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,678评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,400评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,993评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,638评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,801评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,661评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,558评论 2 352

推荐阅读更多精彩内容