从事数据挖掘工作多年使我意识到,算法学习是一个沉淀的过程,或者说是一场“从薄到厚再到薄”的修行的过程。抛开业务问题不谈,就算法学习本身而言,如果仅满足于调包,那么注定只会沦为一个平庸的算法工程师,“从薄到厚”意味着不断夯实基础,形成自己的知识框架,当接触新算法时知道它位于整个算法体系的哪一个位置;而“从厚到薄”则指向实际业务问题,忘掉所有所得,理解业务规则从而选择合适的算法应对。
在深度学习大行其道的今天,不乏跟风者、逐热者,但不能否认经典机器学习算法与深度学习算法在技术上是一脉相承、不可分割的。理解经典 ML 的数学原理,是持续研究 DL 的前提条件和理论基石。
本博客陆续完善经典算法梳理,从原理到源码,加深理解。
监督学习
机器学习-2 感知机
机器学习-3 支持向量机【1】
机器学习-3 支持向量机【2】
机器学习-3 支持向量机【3】
机器学习-3 支持向量机【4】
机器学习-4 k-NN
机器学习-5 朴素贝叶斯
机器学习-6 Logistic Regression
机器学习-7 AdaBoost
机器学习-8 XGBoost
机器学习-10 线性回归及其相关算法
机器学习-11 浅谈模型误差
无监督学习
机器学习-9 EM与GMM【聚类】
机器学习-12 奇异值分解与主成分分析【降维】
机器学习-13 自编码器与变分自编码器【降维】
to be continued...