RECAP:
Soft SVM经过变换,可以和Logistic Regression联系起来。并且,通过w表示z的方法,将L2-Regulated Logistic Regression 转化成为Kernel Logistic Regression。
那么,普通的linear Regression呢?
L2 Regularized Linear Model
线性回归的err为
最佳解
带入Eaug


由于K是半正定,所以并不全是0,是dense的
比较Linear 和Kernel Linear Regression
Linear是在一维的,训练集w是有d个,效率比较高;而Kernel是在多维的,非常灵活,而训练集有N^N^N个这么多,因此效率比较低。

体现在实物上面就是,在Kernel Linear Regress的SV要比Soft SVM的SV多很多。

如何得到像标准SVM那样,sparse的呢?
构造Tube Regression
假设边界的宽度是,有些点落在边界之内,但是不算是violation;只有落在边界之外的点,算是violation,并收
那么

Tube 和Squared Regression的区别
首先Tube是有宽度的,但是平常的Regress 没有宽度。其次,从err来看,在S越来越大时,squared regress增长要超过tube。因此squared regression受到Noise的影响要高于tube。因此建议使用tube代替squared来进行计算

为了方便,将err带入上式
按照soft SVM,引入
s.t ;
将绝对值展开,并将展开成
;
构造拉格朗日公式:

当样本点在tube之内时,;
=>;
=>
=>
如果样本点不在tube之内时,那么
这样,可以看到构造出来的 就有很多0,是sparse的