支持向量机SVM——原理及相关数学推导 系列二

(一)前言

    在系列一中,我们推导的是一个线性可分的SVM,也可以叫做hard margin SVM;但是事情往往不是那么简单,有的时候两个类是很难区分的,或者即使可以线性区分,但是受到噪声点的影响,SVM分割线为了能够正确对噪声点的分类从而偏离了正确的位置,会使得模型过拟合。基于这些原因,我们希望让SVM可以容忍错误,也就是soft margin SVM——线性不可分的SVM

(二)线性不可分的SVM

基本原理

    如果将系列一的推导弄懂了,这里只是对于原来的定义2.3(系列一)一个非常简单的加工。即加上了一个松弛变量\xi_i,这个代表我们对错误的容忍度。
1)当\xi_i = 0,代表着这个点没有被SVM分错,且在分割线外边(也有可能在分割线上);
2)当0 <\xi_i <1,代表着这个点跑到了分割线里面了,但是SVM也是正确分对了的;
3)当\xi_i>1,代表着这个点被分错了。
    C是一个权衡分割线宽度和分错点个数的一个参数,当C较大时,意味着我们希望SVM尽量不要犯错;当C较小时,我们希望SVM的分割线宽度越大越好。

  • 定义2.1
    \begin{align*} &\min_{w,b}\ \frac{1}{2}w^T w + C\sum_{i=1}^{N}\xi_i\\ s.t. \ &y_i(w^Tx_i + b) \geq 1 - \xi_i \\ &\xi_i \geq 0 \end{align*}
    其中,i=1,2,\dots,N

对偶问题

    转为对偶问题和系列一的步骤基本一致,这里就省略一些步骤啦。

  • 定义2.2
    \begin{align*} \max_{\alpha_i \geq 0,\beta_i \geq 0 }\min_{w,b,\xi_i}L = \max_{\alpha_i \geq 0,\beta_i \geq 0 }\min_{w,b,\xi_i} \frac{1}{2}w^T w+C\sum_{i=1}^{N}\xi_i \\ + \sum_{i=1}^{N}\alpha_i\left[1-\xi_i - y_i(w^T x_i + b)\right] -\sum_{i=1}^{N}\beta_i\xi_i \end{align*}
        解内部的最小化问题就是求解其导数,并让导数为0。
    \begin{align*} &\frac{\partial L}{\partial w} = w - \sum_{i=1}^{N} \alpha_i y_i x_i = 0 \\ & \frac{\partial L}{\partial b} = -\sum_{i=1}^{N} \alpha_i y_i = 0 \\ & \frac{\partial L}{\partial \xi_i} = C - \alpha_i - \beta_i = 0 \\ \end{align*}
        将式子代入带定义2.2中,我们将得到定义2.3。

  • 定义2.3
    \min_{C\geq \alpha \geq 0}\frac{1}{2}\sum_{j=1}^{N}\sum_{i=1}^{N}\alpha_i y_i \alpha_j y_j x_i^T x_j - \sum_{i=1}^{N}\alpha_i

    如果你还记得系列一中我们推导出来的对偶式子,你一定会惊叹于数学的玄妙,这个不就是和线性可分的SVM一模一样的式子吗,只不过对于\alpha的限制增加了,从原来的\alpha \geq 0到这里的C \geq \alpha \geq 0
    当然这里依旧需要满足KKT条件:

1.y_i(w^T x_i + b) \geq 1 - \xi_i
2.\alpha \geq 0\beta \geq 0\xi \geq 0
3.w= \sum_{i=1}^{N}\alpha_iy_ix_i,\sum_{i=1}^{N}\alpha_iy_i =0,\alpha_i+\beta_i = C
4.\alpha_i(1-\xi_i - y_i(w^T x_i + b)) = 0\beta_i\xi_i = 0

Bounded Vector 以及超平面求解

    实际上,根据KKT中第4个条件,我们可以将数据分为三个部分:

  1. \alpha_i = 0。那么可以推出\xi_i = 0y_i(w^T x_i + b) > 1,说明这些数据是被分类正确,且在分割线外的,可以叫做Free Vector。
  2. 0<\alpha_i<C。推出\xi_i=0y_i(w^T x_i + b) = 1,说明这些数据被正确分类,但是在分割线上。
  3. \alpha_i = C。推出\xi_i = 1 - y_i(w^T x_i + b),其中\xi_i度量了这个点犯错误的程度,可能是分类正确的点但是在分割线内,也可能是分类错误的点。
    那么上面的2、3中的数据就是Bounded Vector。这些点在求解参数的时候是有用的。
        参数w的求解很简单,在KKT条件3中也指明了。下面主要说明参数b的求解,这个和线性可分的情形稍有不同,若数据都在第3类中,求解参数b会很复杂。但是大部分的情况下,总会有数据在第2类中,那么b = y_i - w^Tx_i

之后有时间会写系列三——SVM kernel,谢谢

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,189评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,577评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,857评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,703评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,705评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,620评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,995评论 3 396
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,656评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,898评论 1 298
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,639评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,720评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,395评论 4 319
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,982评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,953评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,195评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,907评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,472评论 2 342

推荐阅读更多精彩内容