1. 间隔最大化分类
考虑二分类:
为分割样本的超平面的法线, 为截距.
对各样本间隔为正时的和学习.
闭集约束条件:
以上和存在时,称训练样本线性可分.
2. 硬间隔SVM
分割最充分的超平面为最优解, 对应正则化后的间隔的最小值:
- 正则化间隔:
-
最小化:
从几何学来讲, 间隔为两端的两个超平面和的间距的一半, 使这个间隔最大的超平面对应的分类器称为硬间隔支持向量机分类器:
3. 软间隔SVM
硬间隔SVM假定训练样本线性可分, 软件个SVM允许间隔计算出现少量误差:
C>0是调整误差范围参数, C越大, 越接近0, 软间隔SVM越接近硬间隔SVM.
通常的SVM指软间隔SVM.
4. SVM求解
SVM最优化问题是目标函数为二次函数, 约束条件为线性的典型二次规划问题:
导入拉格朗日变量:
考虑最优化问题等价表现形式--拉格朗日对偶问题:
根据最优解条件可得:
消去松弛变量可得拉格朗日对偶问题如下公式:
上述最优化问题, 利用只有n个最优变量的二次规划问题, 求解比原始最优化问题跟高效. 原始的最优化问题:
拉格朗日对偶问题的解用表示, 则SVM的解为:
截距的解:
5. 稀疏性
KKT条件
对偶解的最优条件即KKT条件. 对偶变量和约束条件满足互补关系:
KKT条件:
6. 核映射
核映射非线性模型
核映射使得SVM可以应用于非线性模型. 使用非线性函数对输入样本使用线性SVM分类器.这种特征空间内的线性分类器, 在输入空间是非线性分类器.
如果特征空间维数比输入空间维数d更高,则样本线性可分的可能性更大, 然而特征空间维数过大, 计算量也会响应增加.
核映射可显著降低计算量: 学习时, 线性SVM分类器样本空间输入只存在内积形式; 非线性SVM分类器特征空间输入只存在内积形式
核映射优势:
- 通过核函数定义内积, 不需要知道特征变换具体是什么.
- 输入不是向量, 也可以正确分类.
常见的核函数:
多项式核函数
高斯核函数
核映射方法适用于只关注内积的任何算法, 如聚类分析, 降维,将现行算法轻松转化为非线性.
7. hinge损失的二乘求解
考虑将SVM分类作为最小二乘分类的扩展.
SVM分类器将0/1损失作为间隔的函数单调非增, 但是二乘损失不是单调非增, 直接应用有些不自然, 故考虑将如下Hinge损失作为代理损失:
Hinge损失在m<1时有线性递增趋势, 即分类错误时, 损失无穷递增
Hinge损失和0/1损失函数图像:
Hinge损失最小化学习:
回顾线性分类问题和和模型分类问题
线性分类:
核模型分类问题:
对核模型分类问题进行Hinge损失最小化学习, 引入核矩阵的正则化项: