无监督学习(unsupervised learning) 在无监督学习中,训练样本的标记信息是未知的,目标是通过对无标记训练样本的学习来揭示数据...
Bagging---Bootstrap aggregating 是并行式集成学习方法最著名的代表,基于自助采样法允许在同一种分类器上对训练集进...
神经网络(neural networks)是由具有适应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物体所作出的交...
集成学习是用多个弱分类器构成一个强分类器,其哲学思想是“三个臭皮匠赛过诸葛亮”。一般的弱分类器可以由决策树,神经网络,贝叶斯分类器,K-近邻等构...
首先补充分类问题SVM不能用于多分类问题,但我们可以用The “One-vs-One” trick for Multi-Class SVMs S...
Scikit-Learn用分裂回归树(Classification And Regression Tree,简称 CART)算法训练决策树...
KNN “物以类聚,人以群分”:给定测试样本,基于某种距离度量找出训练集中与其最靠近的k个训练样本,然后基于这k个邻居的信息来进行预测。 KNN...
逻辑回归(logistic regression)又称“对数几率回归。虽然它的名字是回归,但却是一种分类学习方法。逻辑回归也可以从二元分类扩展到...
SVM最初被用来解决线性分类问题,加入核方法之后能有效解决非线性问题。 分类学习基本思想:基于训练集在样本空间中找到一个划分超平面,将不同类别的...