机器学习算法整理 无公式

这个题目取得比较奇怪,原因是:虽然号称数学是世界上最简洁的语言,但是太多的公式难免看的人心慌;其次公式在hexo+mathjax打起来比较的费劲,还有兼容性问题。其实,本意就是想把常用算法罗列一下,用个一两段文字描述一下基本意思和原理,还有用途和局限性,如果看看记不起来了,再去寻求一大堆资料温习一下。其实机器学习常用的算法都比较老了,各种语言的学习库也久经考验,正如越来越多的码农沦为系统集成工程师一样,数据挖掘虽然不用从头实现算法的各个部分,但是如果能对流程和数据特性了如指掌,对各种算法适用范围、优缺点、参数含义烂熟于心,对各种业务指标期望有的放矢,岂不乐哉~

在此还想啰嗦的一句是,这么多算法无论复杂与简单,大多(统计类的可能有些例外)遵循了给出一个模型—计算误差—修正系统,直到得到最优解或者可以接受的误差为止,由此不得不感叹道维纳“控制论”之伟大!

一、分类

1.1 贝叶斯

遵循贝叶斯公式框架的理论,后验概率正比于先验概率与似然度之积。

1.1.1 朴素贝叶斯

朴素贝叶斯之所以朴素,是基于“属性条件的独立性假设”而使得模型的计算被简化了。具体来说,就是输入样本有N维的属性,所有属性之间相互独立,每个属性单独独立的对分类结果产生影响。

对于离散值,就考虑每个属性出现的频率关系得到概率关系,而对于连续的属性,可以考虑其分布类型的概率密度函数。离散属性中,贝叶斯分布一般可以分为Bernoulli /Multinomial,前者是二项式分布,后者是多项式分布。对于统计的元素前者出现与否只有0、1两个状态,后者多项式分布,会记录出每个元素的具体出现频率。一般短文本分类的情况,适用于二项式分布,长文本分析的类似情况,使用多项式分布效果较好。

在文本分类(情感分析)中,使用过贝叶斯分类,很明显:先验概率就是训练文档各个分类的文档比重,此时你没有观测数据,那么按照这么个比例把握比较大,相似度就统计各个分类中词的出现与否/频率,然后对待测的数据,衡量待测数据中出现的词在各个分类中的比率来计算和各个分类的相似程度,最终修正先验概率得到后验概率。关于伯努利分布和多项式分布,在具体文本测试中两者估计就一个多点的差异,尚不是很明显。

这两个实现和求解的过程都比较简单,性能还不错,注意建模时候需要平滑处理,防止最终计算概率时候未出现词导致概率为0,其中常用的拉普拉斯修正~“+1”平滑实现简单而且有效。

1.1.2 半朴素贝叶斯

朴素贝叶斯有属性独立性假设,这种假设在现实中并不是总是成立的,所以对属性独立性假设进行放松就形成了版朴素贝叶斯,比如常见的“独依赖估计”(ODE),其就是假设每个属性在类别之外最多依赖一个其他的属性(如果增加依赖的属性可能计算结果会变好,但是高阶联合概率计算十分复杂),而这个被依赖的属性选择方法就成了这类算法的研究点:比如所有属性都依赖同一个属性,而这个父属性可以通过交叉验证来选择最好的。

1.1.3 贝叶斯网络

又称为信念网络(Belief Network),借助于有向无环图(DAG)来刻画属性之间的依赖关系。

1.2 最大熵估计

在单一机器算法中算是性能上乘的。它基于一个事实:对于我们确信的东西,我们用规则去约束它,对于我们不确定的东西,我们不做任何的假设。新手很容易绕进去,说最大熵不就是最不确定么,我们的目的就是要消除不确定度,让熵降低,那你这个算法让不确定度最大,搞毛线啊。

其实举个例子,比如投骰子,如果什么不规定,你肯定知道投下去1向上的概率是1/6;然后我告诉你投下去1,2,3向上的概率是2/3,那你就知道1向上的概率就是2/9;然后我再约定3向上的概率为1/3,那么你几就推断出1向上的概率就是1/6了。为什么我要做出这么个判断,缘由我们不知道信息的时候,就让他平均分布,不加入人为的任何假设,这时候相对来说风险最小,但同时也是在满足约束条件下熵最大的时候。

在文本分类中,最大熵估计准确度确实比贝叶斯估计多4~5个百分点,但是最大熵估计需要不断的迭代约束条件来让他收敛,性能问算是这个算法最大的问题,常用的解法包括GIS(Generalized Iterative Scaling)、IIS(Improved Iterative Scaling)、L-BFGS,前者的计算效率最低,但是原理清晰,适于学习,而后者算法效率较高,适于工程实践。

1.3 决策树

决策树直观上感觉是跟数学关联最小的一种,其实就是建立一个个的判别规则,形似流程图一样,让样本走到最终的叶节点完成分类。但是,决策树在数据挖掘和商业决策中用的情况非常的广泛,同时一个专业的决策树还是有一些技巧的。由于决策树就是从属性集中选择属性来进行样本划分,所以希望决策树的分支节点的样本尽可能是同类别的,称之为纯度。

决策树的属性有连续和离散之分,对于离散属性,其只会在整个决策树中出现一次,而每个步骤的决策属性不是随便选的,而是基于一定的数学规则来进行,比如ID3使用的信息增益、C4.5使用到的增益率。

信息增益是先计算这个节点的信息熵,然后对于每一个可选属性,假设该种算法计算其分类后各个节点的信息熵,再根据各个节点数目加权进行整合,计算分类之前的信息熵和这个整合值之间的差异,定义为信息增益,大者说明该属性的划分信息增益大,取之。但是信息增益有个问题,就是比较偏向于可选类型值较多的属性,因此还有个增益率选择法,用之前的信息熵整合值处以“属性固有值”IV,而这个IV对于可选值较多的类型结果会比较大,所以偏向与属性类型值取值较小的属性。通常而言,是使用信息增益率先筛选掉一部分属性,在选择剩余的信息增益大的属性来划分。而CART使用的是Gini值,其表示了样本的分散度。

决策树还有的处理是剪枝处理,这对于处理过拟合十分的重要。一些情况下决策树学习的过于细致,一些样本的个性也被计算进去了,导致了模型的泛化很弱。剪枝分预剪枝(在生成树的过程中决定是否继续划分)和后剪枝(生成成功之后,从底向上查看非叶节点能否将其子树整合为叶节点)。一般来说,预剪枝有欠拟合的风险,而后剪枝欠拟合风险小,但是计算相对复杂一些。

对于连续值的预测,可以按照样本的值从小到大进行排序,然后两两去中位数,得到n-1个分类点。然后依次分类点分别计算分类的信息增益,取信息增益大的分类点来决策。还需要注意的是,连续值分类,其属性可以在分类树中使用多次的。

决策树中常会用到的算法有:ID3、CART、C4.5。

二、回归(Regression)和正则化(Regularization )

回归问题属于有监督学习范畴,其相对与分类,回归的最大区别是输出变量是连续值,然而这两者没有必然的区分,因为对于回归的结果,也可以设定一个阈值区域用来实现分类效果。

2.1 线性回归(Linear Regression)

线性回归问题,目的在于得到一个线性模型,使得尽可能的能够让给定的输入能够准确的预测出对应的输出。可以表示为,对于训练数据集D,其每个样本x(i)由多个属性所描述,然后我们试图得到函数模型y=h(x),让y(i)≈h(x(i)),然后可以对任意的新样本输入都能给出连续的输入出值,称之为多元线性回归。记为

h(x)=∑iθixi=θTx

上式中每个x是一个样本,为了方便添加x0=1和截距θ0截距。然后实际的输出和模型的输出肯定是有差距的,因此定义代价函数

J(θ)=12∑i(h(x(i))−y(i))2=12∑i(θ⊤x(i)−y(i))2

然后我们就是要通过训练样本来调整θ,使得J(θ)最小化(1/2为了求导方便)。最常用的方法有:梯度下降法、最小二乘法。

梯度下降法

对于梯度下降法,有批量梯度下降法和随机梯度下降法。区别在于批量梯度下降法每次都考虑全部样本,运算量较大;随机梯度下降法在考虑单个样本之后就会更新θ值,所以可以快速收敛。

批量梯度下降法θ更新公式:θj:=θj+α∑mi=1(y(i)−hθ(x(i)))x(i)j

随机梯度下降法θ更新公式:θj:=θj−α∂J(θ)∂θj=θj+α(y(i)−hθ(x(i)))x(i)j

最小二乘法

相比较梯度下降法需要迭代求取参数θ。

2.2 逻辑回归(Logistic Regression)

逻辑回归其本质还是在于线性回归,只是对之前无约束的线性输出做了一个映射g(z),对于sigmoid函数输出范围为[0,1],对tanh函数为[-1,1],下面假设以sigmoid函数为例,可得

hθ(x)=g(θTx)=11+e−θTx

这个得到的结果hθ(x)就是x分类为1的概率,而1−hθ(x)就是分类为0的概率,训练的目的就是对于标记为1的样本输出最可能的大,二标记为0的样本输出的值尽可能的小。其误差函数定义为:

J(θ)=∑iy(i)log(hθ(x(i)))+(1−y(i))log(1−hθ(x(i)))

其用梯度下降法计算同上面的线性回归是一样的。

2.3 Softmax回归

逻辑回归只能用于二分类的情况,而Softmax更像其在多分类情况下的推广,在使用中,如果目标的分类是多分类互斥的,那么用Softmax,否则可以为每个分类建立一个逻辑回归分类器。

2.4 正则化

为了防止模型过拟合的现象,在损失函数中增加一个对每个特征的惩罚因子的过程。过拟合出现的原因往往是特征维度太多,通过去处不重要的特征可以防止过拟合现象,但是去除特征会损失信息,这种情况下采用正则化就比较的方便(个人的直观感受就是增加了一个阻尼项,使得各个特征的表现不像之前那么明显激进)。工程约定中通常不对θ0进行正则化,同时正则化系数不能选择太大,否则会有欠拟合的风险。

常见的正则化有L-2范数正则化(岭回归 Ridge Regression)、L-1范数正则化(LASSO)

minw∑i=1n(yi−w⃗ Tx⃗ i)2+λ||w⃗ ||1

minw∑i=1n(yi−w⃗ Tx⃗ i)2+λ||w⃗ ||22

L-1范数和L-2范数都有助于降低过拟合的风险,而且相比L-2正则化,L-1正则化更容易得到稀疏解,等于起到了特征选择的作用。

2.5 支持向量机 SVM

2.5.1 支持向量机

2.5.2 支持向量回归(SVR)

其实一看模型f(x⃗ )=w⃗ Tx⃗ +b就类似于回归模型。SVR同一般的回归模型不同的是,一般的回归模型除非输出和标记完全一样,否则肯定会产生和记录误差,但是对于SVR,相当于在回归线的附近产生了一个缓冲带,在这个缓冲带的误差不计算,超过这个缓冲带的误差才会就算中。

2.5.3 核方法

通常的SVM是假设训练样本是线性可分的,就是可以通过超平面将数据正确分类。对于有些不能达到这个要求的样本,就只有想办法将原始特征映射到一个更高维度的特征空间。

三、聚类

聚类算法中比较核心的是距离的度量,距离近的才会被视为一类。常用的距离是Minkowski距离:

(∑i=1n|xi−yi|p)1p

当上式的p=2,就退化成了欧拉距离;当p=1,就退化成了麦哈顿距离。当然属性有离散型和连续型之分,连续型的属性计算距离没有什么问题,对于离散型的属性,如果是数值型的,也可以用Minkowski距离计算,而对于{颜色深,颜色浅}等无序属性,可以采用VDM(Value Difference Metric)计算其距离:

VDMp(a,b)=∑i=1k|mu,a,imu,a−mu,b,imu,b|

上面的公式表示,对于k个样本簇,a、b为属性u的两个取值,两个比值表示每个簇中样本a、b占总数的比例。

3.1 K均值算法(K-means)

其迭代过程表示为:通过对聚得到的每个簇i计算其均值向量μi→,然后再将样本集中的每个元素,计算其与各个簇均值向量的距离,找到距离最近的聚类j,再将这个元素添加到j簇中。这样进行过一轮迭代之后,计算每个簇的新均值向量,如果簇均值向量不再更新,那么迭代停止。

当然K-means也有其缺点:(1)具体K聚类个数不太好把握;(2)初始聚类的种子选择是随机的。

3.2 学习向量化(Learning Vector Quantization)

要求训练的样本带有标记,算是监督类学习的一种,其目标是对每一个聚类簇学习得到一个属性向量。在训练样本中随机选择带标记的样本,然后计算与各个簇向量的距离,选择距离最近的那个簇,然后比较两者的标记是否一致,如果一致就让簇向量向样本属性向量靠拢;否则就反向远离之。

当达到最大迭代数目,或者各个簇向量更新很小的时候,就停止迭代。此时可以对任意样本与各个簇向量计算得到所划分的簇。

3.3 层次聚类(Hierarchical Clustering)

试图在不同层次对数据进行划分,形成树形的聚类结构,有自顶向下和自底向上之分。常见的AGNES是一种自底向上的算法。该算法首先将每个样本看作一个初始聚类,然后在运算的每一步中选择距离最近的两个簇进行合并,重复之直到达到要求的聚类数目。这个算法的核心是计算各个簇之间的距离,当然簇也是由元素组成的,其实就映射到两个簇中选择元素进行计算,然后会有最小距离、最大距离、平均距离等方式来决定结果。

3.4 Latent Dirichlet Allocation (LDA)

这个算法最初发表,作者就是研究的文字类的分类,所以注定其在自然语言处理方便应用非常之很多,比如社交媒体热点监控、政府舆论监控等,而其中腾讯的广告系统就是基于这个算法的一个并行化实现。

本算法是个无指导的分类,只需参数提供聚类的数目即可(该算法还有一个变种,Labelled-LDA,可以实现指导分类)。同时,这个算法还比较有个性的是,其涉及到的数学概念和知识是相当之多。

3.5 Probabilistic Latent Semantic Analysis(PLSA)

其实按照出现的顺序来说或,算是PLSA先出来(据说作者搞完这个就去开公司了,也算潇洒),看看PLSA和LDA就感觉是频率派和贝叶斯派的区别:比如在PLSA中在可观测的doc和term之间,隐藏了一个坚信存在的主题变量z,然后用EM方法估计这个z;相比前者LDA添加了个Dirichlet先验分布和一个Gibbs采样。

理论上人家说LDA由于有先验分布,所以对于超短文本应当可靠性较好,但是在现实的工程实现中,PLSA比较的简单,计算高效而且可以并行化实现,所以PLSA应当更具实用性。

四、数据降维

在高纬数据处理中,数据降维和特征选择是两大主流技术。

4.1 主成分分析(Principal Component Analysis, PCA)

PCA是最常见的降维方法,常常作为一般算法对于数据的预处理操作。其原理就是将高维属性空间变换为一个低维属性空间,让这个空间中的样本密度大幅提高,因为与学习任务密切相关的信息只是高维属性空间中的某些低维属性,而且通常是各个样本变化比较大的那些属性而应当被保留,而差异比较小的,通常是干扰噪声应当被去除。

然后PCA跟SVD(Singular Value Decomposition),很多资料分开讨论,其实算是一个东西:SVD是底层的数学基础,不仅可以降维属性而且可以降维样本数甚至不降维用另外的方式表示数据,PCA算是在统计和机器学习中的一个降低属性维度的约定吧。

算法的过程:(1)对所有输入样本去直流化,并将数据映射到[0-1]区间;(2)计算样本的协方差矩阵X⃗ X⃗ T;(3)对协方差矩阵X⃗ X⃗ T做特征值分解;(4)取最大的d个特征值对应的特征向量w⃗ 1,w⃗ 2,…w⃗ d;(5)生成投影矩阵W⃗ =w⃗ 1,w⃗ 2,…w⃗ d;

这样生成的投影矩阵W⃗ 是正交基向量,Y⃗ =W⃗ TX⃗ 就实现了数据的降维。PCA认为一个随机信号最有用的信息体包含在方差里,在投影的时候就希望找到的超平面上各个样本能够经可能的分开,所以上面得到的Y⃗ 各个向量不仅是独立的,而且是按照方差从大到小的顺序排列的。同时既然进行了降维,那么必定有些数据信息被舍弃了,舍弃这些信息后能让原本的采样密度更大,同时这些被舍弃的特征向量往往跟噪声有关,PCA此时也起到了降噪的作用。

同时,PCA还可以有的作用比如:

数据压缩,比如对于图片这种数据,如果λ的选取的比较少,原来的(m,n)二维矩阵就可以用U,S,V三个小矩阵来近似等价存储了;

高维数据的可视化,将数据降维到2~3维就可以可视化了。

4.2 特征选择

特征选择就是对于高维的属性,挑选那些对当前学习有用的“相关特征”作为属性子集,去除那些没什么用的“无关特征”或者“冗余特征”,这样不但降低了计算的复杂度,同时也免除了那些无关特征对计算结果的干扰。

产生特征集,不能穷举所有的组合类型,因为特征选择本来就是应对高维属性的,穷举的组合类型就会非常的多,因此必须采用合适的子集生成和评价方法。前向搜索方法是:将所有属性分割成单个属性的子集,然后选择单个子集中评价最好的,再依次添加剩余的属性,形成两个元素的属性子集,选择评价最好的,依次类推,直到添加特征后评价还不如不添加,那么添加结束,返回该结果;类似的还有“后向”搜索、“双向”搜索。关于子集的评价,可以使用决策桩形式的信息增益来评价,或者分类准确度等各种评价指标。

常见的特征选择算法:

过滤式选择

主要特点是先进行特征选择,然后进行训练学习,两者是无关的。代表方法是Relief(Relevant Features),其设计了一个相关统计量来度量特征的重要性,该变量是个向量,每个分量代表了其特征的重要性,选择的时候:对每个样本,在其周围选择最近的同类样本和不同类样本,然后依照如下方法进行更新:

δj=∑i−diff(xji,xji,nh)2+diff(xji,xji,nm)2

前者为同类样本的距离,后者为不同类样本的距离(离散类型根据是否相同为0/1,连续类型归一化到0~1)。

包裹式选择

把学习器的最终性能作为属性子集的选择评判标准,所以等于是一种所见即所得的特征选择方法,但是其需要多次训练学习器,因此计算开销比较大。

最常见的包裹式特征选择法是LVM(Las Vegas Wrapper)算法,其算法的主要概念为:采用随机策略产生特征子集A’,采用交叉验证的方法得到学习误差ϵ′,如果它比当前特征子集A误差更小,或者特征子集包含的特征数量更小,则保留A’。这种算法算是比较简单粗暴的,且其停止条件是迭代次数……

嵌入式选择

这其实是L-1范数正则化(LASSO)的副产品,因为对于

minw∑i=1n(yi−w⃗ Tx⃗ i)2+λ||w⃗ ||1

LASSO正则化后w⃗ 是稀疏的,而w⃗ 中非零的分量特征才会出现在最终的模型中,所以等于在使用了L-1正则化的时候,本身就潜入了特征选择的过程。

4.3 隐形语义分析类(Latent Semantic Indexing, LSI)和潜在语义索引(Latent Semantic Analysis, LSA)

这里的方法是基于上面的SVD的,通常应用于文本处理和信息检索之中(LSI将自己定位为Information Retrival)。

这些方法通过TruncatedSVD(其实就是降维啦),一方面可以去除那些不重要的噪音,还可以带来的好处有:对原始的数据进行了新的表示方式,可以处理Synonymy(同一个语义可以有不同种的表达方式)、Polysemy(对于多义词,他们可能工作的不是很好,因为最终得到的向量是加权平均的,所以会展示为接近平均值的语义项)、Term Dependence(原始的空间是基于独立性假设的,但是这往往是不成立的,但是进过SVD变换后,我们可以轻易的使用这个假设)。

经过TruncatedSVD之后,新的Doc-Term表示就可以做很多的事情了:如果要作为文本或者话题分类,就可以按照各个Doc的向量来进行聚类;如果要用作信息检索的话,就将要检索的文本计算其投影后向量,然后在这些文档的向量中寻找最接近的即可;不仅仅对文档,词汇也是按照向量表示的,因此还可以对词汇进行研究,比如寻找某个词关系最密切的词汇等。

对于使用A⃗ =word×docs的矩阵(与常理的习惯有些差异),进行SVD之后,word以U⃗ 的行向量表示,docs以V⃗ 的行向量表示(而不是其转置),他们降维之后的版本就是U⃗ S⃗ 和V⃗ S⃗ 。

五、相关学习算法

5.1 Apriori algorithm

该算法属于关联分析中的经典算法,用于找到各种集合中频繁出现的项,在商家产品推荐中应用广泛,常常也被称为购物篮分析,用于挖掘常见的商品购买组合。如果产品的数据有限,道可以穷举所有的组合来统计,但是一般商家的产品数目众多,这种笨办法显然是不合适的。

支持度(support):表示某个子集合在数据集所有集合中所占的比例;

置信度/可信度(confidence):针对A->B这条规则,可信度表示为 支持度(A,B)/支持度(A);

从原理上说,Apriori实际是一个自底到顶的生成算法,Apriori的原理是:如果某个集合是频繁项,那么他的所有子集也是频繁项;反之,如果某个集合是非频繁项,那么他的所有超级肯定也不是频繁项。通过后面的原理,加上支持度的约束,可以省略很多集合项的统计操作。

其生成步骤描述为:

(1)首先创建长度为1的子集合,然后扫描数据集计算支持度,去掉支持度不满足的元素;

(2)将元素组合,生成长度为2的子集合,进行支持度的计算和排除;

(3)后面对于要生成长度为k的子集合,具有一定的技巧操作——对上一轮的(k-1)长度的子集合,进行两两比较,如果排序后其前(k-2)个元素相同,就取(k-2)|(k-1)~1|(k-1)~2这样组合成长度为k的子集合;(注意,这里有点像Eclat算法)

(4)依次进行(3),直到不能产生子集合为止。

Apriori算法的缺点是:需要产生大量的候选子集合,而且需要不断扫描原始数据集,算法效率比较低。

5.2 FP-growth

针对Apriori的缺点,FP不生成候选子集合,同时只需要扫描两遍数据集,将原始数据集压缩成一个频繁模树,然后依据这个频繁模式树生成关联规则,比Apriori算法快一个数量级。

5.3 Eclat algorithm

Eclat算法的思想采用了倒排的概念,一般的数据集都是(TID, items)的形式,而Eclat将数据转换成(item,TIDs)的组织方式。

子集的元素按照顺序排列,假设其前(k-1)项相同,那么就可以进行或操作得到k项子集了,而同时两个集合的TIDs进行并操作,就得到了新子集的TIDs,所以不需要扫描原始数据集,算法的效率比较的高。

这个算法的缺点是要保留所有子集合的TID交易集,所以如果数据规模大的话,需要耗费大量的内存。

六、半监督学习

针对标记的样本数量比较的少,未标记样本数目比较大的情况,而假设标记样本和未标记样本都是从数据源中独立同分布采样而得到的,那么就可以考虑使用标记和未标记样本的半监督的学习方法来建立模型。

七、集成学习

通过构建多个学习器来完成学习任务,将个体学习器的结果运用某些策略集合产生最终的结果。对于个体学习器,如果是相同的称为同质学习器,如果不同的则称为异质学习器。

其实在整个集成学习的理论中,追求的就是各个基学习器“好而不同”,其实对每个基学习器的要求不会像平常单个学习方法那么高(当然高更好,可以减少基学习器的数目),关键是各个基学习器之间要有差异,有自己的个性,如果大家对相同的样本做出的判断都一样,其实对最终的准确性和泛化能力没有任何的帮助

基学习器多样性的方法有:

数据样本扰动:基本基于样本采样实现,主要对决策树、神经网络等不稳定基学习器有效,而对线性学习器、支持向量机、朴素贝叶斯等稳定学习器效果很小。

输入属性扰动:当属性比较多的时候推荐,比如随机森林的机制。

输出表示扰动:

算法参数扰动:

集成学习的集合策略有:

平均法和加权平均法:前者可为后者权重相同时候的一个特例,一般来说,除非各个基学习器之前性能差异十分明显,否则建议蚕蛹平均法集成学习结果。

投票法:可分为绝对多数投票法(只有当投票超过半数才接受,否则不输出结果,用于对可靠性要求高,可以不输出结果的情形)、相对多数投票法、加权投票法。

根据个体学习器的生成方式,集成学习分为两类:个体学习器之间有强依赖关系,必须串行化生成,代表的有Boosting;个体学习器之间没有强依赖关系,代表有Bagging和随机森林(Random Forest)。

7.1 Boosting及著名代表AdaBoost

如上文的描述,整个模型是串行生成的。算法首先给训练样本权值均匀化,使用一个基分类器训练之,然后根据样本的输出与标记进行对比:如果一致,那么样本的权重会相应降低,如果不一致,那么样本的权重会相应的增加,然后用这些新权重的样本去训练下一个分类器,直到达到指定数目的分类器。这里每一步训练的时候,会对结果的误差θ进行评判,如果小于0.5(还不如随机分布),整个训练以失败结束。

实践中,有的属性是可以赋值权重的,对于不能赋值权重的,可以通过重采样来实现(估计就是将错误的样本大概率多采集点)。同时,AdaBoost只支持二分类的计算。

7.2 Bootstrapped Aggregation (Bagging)

主要是基于自助采样法(bootstrap sampling),进行有放回的采样得到采样集(初始样本约有63.2%的几率会出现在采样集中),然后用每个采样集训练每个基学习器,再将这些基学习器的结果进行集合(常用简单投票法)就可以了。同时由于对于每个基学习器都有36.8%的样本没有用于训练,所以这些“包外样本”可以用于验证基学习器的泛化性能等。

7.3 随机森林 Random Forest

实际是Bagging的一个扩展变体。RF以决策树作为基学习器来构建Bagging集成学习,同时在决策树训练的时候,引入随机属性选择的机制,因为传统的决策树都会按照信息增益、增益率等方式选择出一个最好的属性来用于每一步划分,而随机森林会在这之前每次随机选择一个属性集的子集合,然后在子集和中选择最优属性进行划分,k为随机度——k=1就是完全随机,k=d就是传统的决策树,推荐k=log2d。

八、暴力类

之所以这么称,源于这类算法对计算量要求实在是高,网络层数少了模型能力有限(单层神经网络甚至不能执行异或操作),层数深了吧计算量和对训练数据的要求也斗升,所以不搞个Nvdia支持Cuda的GPU,很多样例复现都费劲。深度学习自然是当前机器学习的研究热点,相关论文发布很多,成果也很诱人,同时漫山遍野的深度库使得是个码农都能玩两下——但请谨慎入坑,其毛病也多多:

训练出来的模型是黑核的,不具备解释性,改进、微调等都比较麻烦,部署风险很高;网络结构,参数设置,训练样本涉及到的因素太多,对开发者经验要求好,而且最终一个工作的模型可能是不断试错最终得出来的;欠拟合、过拟合问题比大多数算法都为的严重(包外数据验证);最不低碳环保的算法。

8.1 神经网络 BP神经网络

早期的神经网络主要以BP网络最为常见和重要。由控制论得知,如果没有BP机制反向传递系统误差用于修正,就很难实现复杂稳定的模型。

8.2 深度学习

8.2.1 Convolutional Neural Network (CNN)

卷积神经网络,主要适用于固定维度的输入信号,以图像处理最为代表。

8.2.2 Recurrent Neural Network (RNN)

表现为这一层网络的那个神经元,除了接受上一层神经元的输出作为输入之外,还接受同层相邻神经元的输出作为输入,这些输入会有个类似开关的东西控制各个输入源的权重。常见的RNN网络有LSTM、GRU。

最后,我不得不说——不用公式记录算法根本做不到~~~

同时,如果有些科学计算不方便,但是有没有装Matlab的,推荐这个GNU OCTAVE ONLINE,很好用!

#参考目录

机器学习 - 周志华

A Tour of Machine Learning Algorithms

Machine Learning Library (MLlib) Guide

中文语言处理工具

LDA漫游指南

[LDA工程实践之算法篇-1]算法实现正确性验证

scikit-learn docs

Apriori算法

查看原文

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,029评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,395评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,570评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,535评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,650评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,850评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,006评论 3 408
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,747评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,207评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,536评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,683评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,342评论 4 330
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,964评论 3 315
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,772评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,004评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,401评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,566评论 2 349

推荐阅读更多精彩内容

  • 注:题中所指的『机器学习』不包括『深度学习』。本篇文章以理论推导为主,不涉及代码实现。 前些日子定下了未来三年左右...
    我偏笑_NSNirvana阅读 39,936评论 12 145
  • 机器学习是做NLP和计算机视觉这类应用算法的基础,虽然现在深度学习模型大行其道,但是懂一些传统算法的原理和它们之间...
    在河之简阅读 20,488评论 4 65
  • 考试说明 注重基础知识和概念的理解,因此解题中的计算过程不会很复杂,但是会有推公式的过程。本课程的重点知识包括:贝...
    艺术叔阅读 2,826评论 0 3
  • 小时代一部一部的出,刚开始总不会看,觉得它表现的太过华丽光鲜,没有了现实生活的真实与残酷。但当看过才知道,所谓的友...
    帅帅哒小帅哥阅读 202评论 0 0
  • 天上飘着棉花一样的白云,地上长着白云一样的棉花一这是先生高中语文老师全国获奖作文中的名句。也是先生高中生活的...
    李风嫱阅读 337评论 0 1