今天二战头条的实习生,还是止步在一面,不免有些伤心和失望,但是这也让我看到了自己的不足之处,机器学习算法的数学推导必须深入研究,现将题目记录于此,加油!
1、LDA的推导
2、常见的分类算法有哪些?
3、SVM的推导
4、SVM如何选择核函数?
在选取核函数解决实际问题时,通常采用的方法有:一是利用专家的先验知识预先选定核函数;二是采用Cross-Validation方法,即在进行核函数选取时,分别试用不同的核函数,归纳误差最小的核函数就是最好的核函数.如针对傅立叶核、RBF核,结合信号处理问题中的函数回归问题,通过仿真实验,对比分析了在相同数据条件下,采用傅立叶核的SVM要比采用RBF核的SVM误差小很多。
在我的研究做实验过程中,最常用的是Linear核与RBF核。
1). Linear核:主要用于线性可分的情形。参数少,速度快,对于一般数据,分类效果已经很理想了。
2). RBF核:主要用于线性不可分的情形。参数多,分类结果非常依赖于参数。有很多人是通过训练数据的交叉验证来寻找合适的参数,不过这个过程比较耗时。我个人的体会是:使用libsvm,默认参数,RBF核比Linear核效果稍差。通过进行大量参数的尝试,一般能找到比linear核更好的效果。
但是应用最广的应该就是RBF核了,无论是小样本还是大样本,高维还是低维等情况,RBF核函数均适用,它相比其他的函数有一下优点:
1)RBF核函数可以将一个样本映射到一个更高维的空间,而且线性核函数是RBF的一个特例,也就是说如果考虑使用RBF,那么就没有必要考虑线性核函数了。
2)与多项式核函数相比,RBF需要确定的参数要少,核函数参数的多少直接影响函数的复杂程度。另外,当多项式的阶数比较高时,核矩阵的元素值将趋于无穷大或无穷小,而RBF则在上,会减少数值的计算困难。
3)对于某些参数,RBF和sigmoid具有相似的性能。
知乎帖子:https://www.zhihu.com/question/21883548
5、LR的推导
6、LR的缺点
逻辑回归的优点:
便利的观测样本概率分数;
已有工具的高效实现;
对逻辑回归而言,多重共线性并不是问题,它可以结合L2正则化来解决;
逻辑回归广泛的应用于工业问题上(这一点很重要)。
逻辑回归的缺点:
当特征空间很大时,逻辑回归的性能不是很好;
不能很好地处理大量多类特征或变量;
对于非线性特征,需要进行转换;
依赖于全部的数据(个人觉得这并不是一个很严重的缺点)。
原文:http://www.csdn.net/article/2015-12-02/2826374?reload=1