SVM(支持向量机)笔记-间隔与支持向量,拉格朗日乘子法和KKT条件

概述

  • 优点:泛化错误率低,计算开销不大,结果易解释。
  • 缺点:对参数调节和核函数的选择敏感,原始分类器不加修改仅适用于处理二分类问题。
  • 适用数据类型:数值型和标称型

概念解释

线性可分:见图1,可以在图中画出一条直线将两组数据点分开。可以说,这组数据线性可分
分隔超平面:图1中将数据集分隔开的直线称为分隔超平面。此时在二维平面上是一条直线,如果是三维数据集,则会是一个平面。更高维度的,则会是一个超平面

图1

间隔与支持向量

给定训练集D = \{(x_1, y_1), (x_2, y_2),\dots, (x_m, y_m)\}, y_i \in \{-1, +1\}

基于训练集D在样本空间找到一个分隔超平面,将不同类别的样本分开,但这样的超平面有很多,如图1所示。

直观上看,两类数据正中间的超平面比较好(图1中标粗的直线),这个超平面离两类数据的间隔最大,对训练样本局部扰动的“容忍”性最好。由于训练集的局限性或噪声的因素,训练集外的样本可能更接近分隔界,这将使许多分隔超平面出现错误,而离两类数据间隔最大的超平面受影响最小。简言之,这个分隔超平面所产生的分类结果是最鲁棒的,对未见示例的泛化能力最强。

分隔超平面可用如下式子来描述:
w^Tx + b = 0\tag{1}

样本空间中任意点x到超平面的距离r为:
r = \frac{\left|w^Tx + b\right|}{\Vert{w}\Vert}\tag{2}

输入数据给分类器会输出一个分类标签。这相当于一个类似于Sigmoid函数在作用。下面用类似于单位阶跃函数的函数对w^T + b作用得到f(w^T + b),其中当u < 0时f(u)输出-1,反之则输出+1。不妨令:
\begin{cases} w^Tx_i + b \geq+1, y_i = +1\\ w^Tx_i + b \le -1, y_i = -1 \end{cases}\tag{3}

如图2所示,距离超平面最近的几个数据点使式(3)的等号成立,它们被称为支持向量(support vector),两个异类支持向量到超平面的距离之和为:
\gamma = \frac{2}{\Vert{w}\Vert}\tag{4}

被称为间隔

图2

显然,我们需要找到具有最大间隔的分隔超平面,也就是要找到满足式(3)中约束的参数w和b,使得\gamma最大,即:
\begin{aligned} &\mathop{max}\limits_{w,b}\frac{2}{\Vert{w}\Vert}\\ &s.t.y_i(w^Tx_i + b) \ge 1,i = 1,2,3\ldots,m\\ \end{aligned}\tag{5}

上述公式可重写为:
\begin{aligned} &\mathop{min}\limits_{w,b}\frac{1}{2}\Vert{w}\Vert^2\\ &s.t.y_i(w^Tx_i + b) \ge 1,i = 1,2,3\ldots,m\\ \end{aligned}\tag{6}

由此,我们就得到SVM(Support Vector Machine)的基本型。

拉格朗日乘子法和KKT条件

拉格朗日乘子法

拉格朗日乘子法多用于组合优化问题。例如下面这个带约束的优化问题:


这是一个带等式约束的优化问题,有目标值,有约束条件。假设没有约束条件,那么这个问题该怎么求解?

直接f对各个x求导等于0,解x就可以了,可以看到没有约束的话,求导为0,那么各个x均为0吧,这样f=0了,最小。但是x都为0不满足约束条件,那么问题就来了。

额外说一点,为什么上面说求导为0就可以呢?理论上多数问题是可以的,但是有的问题不可以。如果求导为0一定可以的话,那么f一定是个凸优化问题,什么是凸的呢?像下面这个左图:

凸的就是开口朝一个方向(向上或向下)。更准确的数学关系就是:


需要注意的是这个条件是对函数的任意x取值。如果满足第一个条件就是开口向上的凸,第二个是开口向下的凸。

对于凸问题,你去求导的话,只有一个极点,这就是最优点。而像上图右边的图,你去对它求导的话,会得到多个极点,我们可以直接从图看到,只有其中一个极点是最优解,其他的是局部最优解。如果这是真实问题,要选择哪个呢?说到这里,我们要明白拉格朗日法是一定适合于凸问题的,但不一定适合于其他问题。

回到有约束的问题上,既然有了约束不能直接求导,那么我们可以把这个约束乘一个系数加到目标函数中去,这样就相当于既考虑了原目标函数,也考虑了约束条件,例如上面的函数,将约束条件加进去就变为:
min\quad f = 2x_1^2 + 3x_2^2 + 7x_3^2 + \alpha_1(2x_1 + x_2 - 1) + \alpha_2(2x_2 + 3x_3 - 2)

分别对x求导等于0,如下:


把它再代到约束条件中去,可以看到2个变量两个等式,可以求解,将得到的解再代回去求x就可以了。那么一个带等式约束的优化问题就通过拉格朗日乘子法完美解决了。还有一种带有不等式的约束问题怎么办?那么就需要用更一般化的拉格朗日乘子法,即KKT条件,来解决这种问题了。

KKT条件

KKT条件指在满足某些规则条件下, 非线性规划问题能有最优解的充要条件, 是广义拉格朗日乘数的重要成果
一般优化问题(含等式和不等式约束约束):
\begin{gathered} \underset{t}{min}f(t) \; s.t. &g_i(t) \leq 0, i=1,\cdots,p \\ &h_j(t) = 0, j=1, \cdots, q \end{gathered}
引入Lagrange算子\alpha, \beta:
L(t, \alpha, \beta) = f(t) + \sum_{i=1}^p\alpha_i g_i(t) + \sum_{j=1}^q\beta_j h_j(t)

可将\alpha\beta分别看做两个约束g_i(t) \le 0h_j(t) = 0的限制条件

KKT条件指上述问题的最优点x^*必须满足:

  1. 约束条件满足: g_i(x^*) \le0, h_i(x^*)=0
  2. \nabla L(t,\alpha,\beta)|_{t=x^*} = \nabla f(x^*) + \sum_{i=1}^p\alpha_i\nabla g_i(x^*) + \sum_{j=1}^q \beta_j \nabla h_j(x^*) = 0
    即,
    最优点x^*处, \nabla f必须是\nabla g_i\nabla h_j的线性组合
    引入拉格朗日算子可以求出极值的原因:

由于f(t)的dt变化方向受其他不等式的约束, 且在极值x^*处,f(t)的梯度\nabla f(x^*)\nabla g(x^*),\nabla h(x^*)之间存在线性关系, 故引入拉格朗日算子可以求出极值

  1. \beta_j \ne 0\alpha_i \ge 0,\; \alpha_i g_i(x^*) = 0

不等式g_i(t)\le0的限制条件有方向性, 故\alpha_i \ge 0, 等式h_j(t)=0的限制条件无方向性, 故\beta_j无符号限制

参考

学习SVM,这篇文章就够了!(附详细代码)
支持向量机(SVM)从入门到放弃再到掌握
一文理解拉格朗日对偶和KKT条件
浅谈最优化问题的KKT条件
直观理解KKT条件

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,039评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,426评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 165,417评论 0 356
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,868评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,892评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,692评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,416评论 3 419
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,326评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,782评论 1 316
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,957评论 3 337
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,102评论 1 350
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,790评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,442评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,996评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,113评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,332评论 3 373
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,044评论 2 355

推荐阅读更多精彩内容

  • 【概述】 SVM训练分类器的方法是寻找到超平面,使正负样本在超平面的两侧(分类正确性即“分得开”),且样本到超平面...
    sealaes阅读 11,076评论 0 7
  • 参考Jerrylead和july-支持向量机通俗导论 一、由逻辑回归,引申出SVM(线性可分的SVM) 1.1 逻...
    小碧小琳阅读 1,446评论 0 2
  •     这篇博文中直观上讲解了拉格朗日乘子法和 KKT 条件,对偶问题等内容。    首先从无约束的优化问题讲起,...
    百分点技术圈阅读 2,218评论 0 3
  • 一、什么是支持向量机 支持向量机(Suport Vector Machine,常简称为SVM),是一个监督式学习的...
    rosyxiao阅读 5,143评论 0 0
  • 微信群先发上来一图,再一个问句:群里有人看懂划线的那句具体是什么意思吗? 既然碰到了,我就解答下...
    中医微尘阅读 1,736评论 0 2