11.gitchat训练营-SVM——线性可分 SVM 原理

线性可分和超平面

二分类问题

        在机器学习的应用中,至少现阶段,分类是一个非常常见的需求。特别是二分类,它是一切分类的基础。而且,很多情况下,多分类问题可以转化为二分类问题来解决。
        所谓二分类问题就是:给定的各个样本数据分别属于两个类之一,而目标是确定新数据点将归属到哪个类中。

特征的向量空间模型

        一个个具体的样本,在被机器学习算法处理时,由其特征来表示。换言之,每个现实世界的事物,在用来进行机器学习训练或预测时,需要转化为一个特征向量。
        一般来说,特征空间可以是欧氏空间,也可以是希尔伯特空间,不过为了便于理解,我们在以后的所有例子中都使用欧氏空间。
        直观上,当我们把一个 n 维向量表达在一个 n 维欧氏空间中的时候,能够“看到”的一个个向量对应为该空间中的一个个点。
        这样来想象一下:我们把若干样本的特征向量放到特征空间里去,就好像在这个 n 维空间中撒了一把“豆”。
        当 n=1 时,这些“豆”是一条直线上的若干点;当 n=2 时,这些“豆”是一个平面上的若干点;当 n=3 时,这些“豆”是一个几何体里面的若干点……

线性可分

现在再想想我们选取特征的目的:我们将一个事物的某些属性数字化,再映射为特征空间中的点,其目的当然是为了对其进行计算。
        比如,我们的特征向量是2维的,下面图中的红蓝两色点都是样本的特征向量,不过红色点对应的是正类,而蓝色点对应的是负类:

image

        我们发现,哎?在当前的特征空间(上面二维坐标系)中,正负两类样本各自和自己的“同伙”“站在”一个阵营里,而这两个“阵营”之间,则已经有了一条隐隐的楚河汉界。
        我们可以把这条楚河汉界(分割线)画出来,见下图中绿色线:


image

        这样,两类样本完美地被绿线分隔开。此时,我们说这两类样本在其特征空间里线性可分
        上面的表述很不严谨,我们来看看线性可分严格的数学定义:
        D_0D_1n维欧氏空间中的两个点集(点的集合)。如果存在n维向量w和实数b,使得所有属于D_0的点x_i都有wx_i + b > 0,而对所有所有属于D_1的点x_j则有wx_j + b < 0。则我们称D_0D_1线性可分。

超平面

        上面提到的,将D_0D_1完全正确地划分开的wx + b = 0,就是超平面(Hyperplane)。
        超平面:n 维欧氏空间中维度等于 n-1 的线性子空间。
        1维欧氏空间(直线)中的超平面为0维(点),2维欧氏空间中的超平面为1维(直线);3维欧氏空间中的超平面为2维(平面);以此类推。
        在数学意义上,将线性可分的样本用超平面分隔开的分类模型,叫做线性分类模型,或线性分类器
        什么样的超平面是最佳的呢,一个合理的策略是:以最大间隔把两类样本分开的超平面,是最佳超平面!
        因此,我们将这样的超平面作为最佳超平面:
        1.两类样本分别分隔在该超平面的两侧;
        2.两侧距离超平面最近的样本点到超平面的距离被最大化了。
这样的超平面又叫做最大间隔超平面

线性可分支持向量机

找到最大间隔超平面

        线性可分支持向量机就是:以找出线性可分的样本在特征空间中的最大间隔超平面为学习目的的分类模型。
        怎么能找到最大间隔超平面呢?
        我们可以先找到两个平行的,能够分离正负例的辅助超平面,然后将它们分别推向正负例两侧,使得它们之间的距离尽可能大,一直到有至少一个正样本或者负样本通过对应的辅助超平面为止——推到无法再推,再推就“过界”为止。
        下图是二维坐标系里,两个辅助超平面(蓝、红两条直线)的例子:

image

        这两个超平面互相平行,它们范围内的区域称为“间隔”,最大间隔超平面位于这两个辅助超平面正中的位置与它们平行的超平面——图中绿线为最大间隔超平面。
        用我们初中时就熟悉的表示方法来表示这两条直线,则:
                蓝线:x_2 = sx_1 + t_1 => sx_1 – x_2 + t_1 = 0\;\; (1)
                红线:x_2 = sx_1 + t_2 => sx_1 – x_2 + t_2 = 0\;\; (2)
        设d = t_1 – t_2,位于(1)和(2)正中的绿线(所求最大分割超平面)则表示为:
x_2 = sx_1 + t_1 – \frac{d}{2} => sx_1 – x_2 + t_1 - \frac{d}{2} = 0
        将t_2 = t_1 -d带入(2),然后将(1)两侧同时减去\frac{d}{2}(2)两侧同时加上\frac{d}{2},则有:
sx_1 – x_2 + (t_1 - \frac{d}{2}) = \frac{d}{2} \;\;\;\; (2’)
        将(1')(2')(3)两侧同时除以-\frac{d}{2},则有:
-\frac{2s}{d}x_1 + \frac{2}{d}x_2 + (1-\frac{2t_1}{d}) = 1 \;\; \;\;(1’’)
-\frac{2s}{d}x_1 + \frac{2}{d}x_2 + (1-\frac{2t_1}{d}) = -1 \;\; (2’’)
-\frac{2s}{d}x_1 + \frac{2}{d}x_2 + (1-\frac{2t_1}{d}) = 0 \;\;\;\;(3’’)
        设x = (x_1, x_2),w = (\frac{-2s}{d}, \frac{2}{d}),b = 1-\frac{2t_1}{d}
                蓝线:wx + b = 1
                红线:wx + b = 1
                绿线(最大分割超平面):wx + b = 0

定义

        现在我们先来熟悉一组符号:用来训练线性可分支持向量机(Support Vector Machine,SVM)的样本记作:
T = \{(x_1, y_1), (x_2, y_2), … , (x_m, y_m) \}
        其中,x_in 维实向量,而 y_i的取值要么是1,要么是-1i=1,2,…, my_ix_i的标签,当y_i=1时,x_i为正例;当y_i = -1 时,x_i为负例。
        我们要找到将上面m个样本完整正确地分隔为正负两类的最大间隔超平面w·x + b = 0。这个超平面由其法向量w和截距b确定,可用(w,b)表示。

image

        这m个样本在特征空间是线性可分的,因此我们可以找到两个将正负两类样本分离到距离尽可能大的超平面,它们分别是:
                w·x + b = 1(超平面1)

                w·x + b = -1(超平面2)
        通过几何不难得到这两个超平面之间的距离是\frac{2}{||w||},因此要使两平面间的距离最大,我们需要最小化||w||

学习目标

        依据定义,我们知道样本数据需满足下列两个条件之一:
                若y_i = 1,则wx_i + b \ge 1
                若y_i = -1,则wx_i + b \le -1
        也就是说没有样本点处在超平面1和超平面2中间,且所有点都在正确的那一侧。
        将上面两个式子合并一下就是y_i(wx_i + b) \ge 1
        也就是说,我们要最小化||w||是有约束条件的,条件就是:
y_i(wx_i + b) \ge 1, i=1,2,…, m
        因此,求最大分割超平面问题其实是一个约束条件下的最优化问题,我们要的是:
min(||w||)
s.t. \;\; y_i(wx_i + b) \ge 1,\;\; i=1,2,…, m
        为了后面好算,我们用\frac{(||w||^2)}{2}来代替||w||,并将约束条件变一下形式:
min(\frac{||w||^2}{2})
s.t. \;\; 1- y_i(wx_i + b) \le 0, \;\;i=1,2,…, m
        这就是支持向量机的学习目标,其中min(\frac{||w||^2}{2})是目标函数,我们要对它进行最优化。
        对这样一个最优化问题,需要通过优化算法来求解。关于优化算法,我们之前学习过梯度下降法,简单直接,是不是可以应用到这里呢?可惜不行。因为,梯度下降是优化没有约束条件问题的算法。
        此处我们遇到的,是一个有约束条件的最优化问题。在此我们要学习一个新的算法:拉格朗日乘子法

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,684评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,143评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,214评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,788评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,796评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,665评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,027评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,679评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 41,346评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,664评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,766评论 1 331
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,412评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,015评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,974评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,203评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,073评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,501评论 2 343