SVM

SVM

1995 年, 基于统计学习的理论基础发展出了一种新的通用的学习方法——支持向量机 (SVM). 可以说 SVM 是统计学习理论在算法领域应用的集中体现. SVM 的提出, 一举解决了第二代神经网络的结构选择和局部最小值 (过拟合与欠拟合) 等问题, 使第二代神经网络的发展进入了又一个低潮期. 以统计学习方法为基础的 SVM 被应用于机器学习的各个领域, 成为最通用的万能分类器.

线性支持向量机

\mathcal{X} = \{x_1,x_2,\cdots,x_m: x_i \in ℝ^n\}, \mathcal{Y} = \{y_1,y_2,\cdots,y_m\}, 数据空间 V = \mathcal{X \times Y}. 以下 i \in \{1, 2, \cdots, m \}, 分离超平面为 w^T x + b = 0

SVM 的目的是最大化间隔 (margin), 对于线性可分的数据集, 模型假设为
\begin{cases} \displaystyle\min_{w} & ||w||^2/2 \\ \operatorname{s.t.} & {y_i(w^T x_i+b)} \geq 1 \end{cases}

考虑到存在线性不可分的数据集, 引入了变量 \xi_i \geq 0, 且 \frac{\xi_i}{||w||} 表示点 x_i 到离它最近的边界的距离, 模型便改写为
\begin{cases} \displaystyle{\min_{w,C}} & ||w||^2/2 + C \sum_i \xi_i \\ \operatorname{s.t.} & {y_i(w^T x_i + b)} \geq 1 - \xi_i \end{cases} ⇔ \displaystyle{\min_{w, C}} \; ||w||^2/2 + C \sum_i \max(0, 1 - y_i(w^T x_i + b))

在学术上预测损失 LL = \sum_i \max(0, 1 - y_i(w^T x_i + b)), 被称为 hinge loss, f(x) = \max(x,0) 被称为线性整流函数 (ReLU).

因而, 此时的 SVM 可以看作为正则项为 l_2 范数, 激活函数为 ReLU 的单层神经网络模型(与其他模型不同的是 SVM 的正则项是不能省略的). 此时的 SVM 被称为线性 SVM.

更多内容见 SVM

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
禁止转载,如需转载请通过简信或评论联系作者。

推荐阅读更多精彩内容

  • 文章主要分为:一、深度学习概念;二、国内外研究现状;三、深度学习模型结构;四、深度学习训练算法;五、深度学习的优点...
    艾剪疏阅读 21,963评论 0 58
  • 101.深度学习(CNN RNN Attention)解决大规模文本分类问题。 用深度学习(CNN RNN Att...
    大黄大黄大黄阅读 13,994评论 2 42
  • 原文:http://blog.sina.com.cn/s/blog_818f5fde0102vvpy.html 在...
    MapleLeaff阅读 3,555评论 1 30
  • 十六岁时,说你不懂事可以理解,可以我行我素;十八岁了,说你不懂事可以理解,你毕竟还在青春期,叛逆期;二十岁了,大学...
    离墨枫阅读 252评论 0 1
  • 今日一家来谢师傅武馆第一天上课! 我和先生学的是站桩,非常好。。。 先生之前有站桩势底,谢师傅可以安排其他师兄师姐...
    我是丽兴阅读 452评论 0 0