今天,妹子给大家讲的是学习机器学习的“万能步骤”。用了这套学习步骤,妹子就算是看再晦涩难懂的模型,都不慌。
咱都知道成功的要素,要么是情商,要么是智商。但其实还有一种,那就是方向。相信大家都听过这样一句话“不怕失败,就怕方向错误”,可见方向的选择是很重要的,学习更是如此。大数据相关的知识日新月异,这也对数据在职人更新换代自己知识库的要求更高。和其他岗位不同,数据在职人所处的行业,是和数据,模型,算法打交道的,所以咱要更新知识,必然避不开看数学运算。数学,是一个需要高度抽象思维去学习的知识,单单是可以列出来的数学分支就有25类。
所以,为了更有效率的更新自己的知识库,不被淹没在数学公式和细节里,咱需要有自己的学习策略。妹子总结的学习策略,是由几个“函数”组成的:预测函数+损失函数+学习函数。咱们先抓住主要矛盾,再去看细节,知识自然更容易被理解,掌握,运用!
预测函数
预测函数,只是妹子起的一个名字,便于大家理解,不用纠结它的名字,它是用来预测结果的函数。
分类任务的预测函数:AdaBoost,C4.5 algorithm,ID3 algorithm,K-nearest neighbors algorithm,Naive Bayes classifier,Random forest,Support-vector machine等;
聚类任务的预测函数:K-Means,Spectral clustering,Ward hierarchical clustering,Agglomerative clustering,DBSCAN,Gaussian mixtures等;
回归任务的预测函数:Logistic regression,Ridge regression,Bayesian Regression,Kernel ridge regression,Nearest Neighbors Regression,Gaussian Process Regression (GPR),Isotonic regression等
损失函数
同上,大家不用纠结名字,它是用来评估模型预测好坏的函数。
分类任务的损失函数:Square loss,Logistic loss,Exponential loss,Savage loss,Tangent loss,Hinge loss等;
聚类任务的损失函数:adjusted_mutual_info_score,adjusted_rand_score,completeness_score,v_measure_score等;
回归任务的损失函数:explained_variance,max_error,neg_mean_absolute_error,neg_mean_squared_error,r2,neg_mean_poisson_deviance等。
学习函数
同上,大家不用纠结名字,它是用来指导模型修正预测函数的函数。
梯度下降家族:Batch Gradient Descent,Stochastic Gradient Descent,Mini-batch Gradient Descent 等;
牛顿家族:牛顿法,阻尼牛顿法等;
拟牛顿家族: DFP,BFGS,L-BFGS等;
共轭梯度家族:FR,PRP等。