最近1个月,阅读机器学习相关书籍的过程中,陆陆续续看到太多的算法。如何把这些算法或是模型上架(归类)到脑子中,是个小难题。网上到是有大家顶贴比较多的归类方式,如“人工智能之机器学习算法体系汇总” http://blog.csdn.net/dream_an/article/details/76358374 。 文章中的思维导图的划分方式与《图解机器学习》这本书的里划分类似。 也是当前的主流划分方式。 监督学习,无监督学习,半监督学习,深度学习,强化学习,迁移学习,及其它(集成学习等)。 与此对比的李航老师写的《统计学习方式》里到是直接把各模型算法给平铺出来。从第二章开始,每一章讲一种方法。 分别讲了感知机,k近邻法,朴素贝页斯,决策树,LR与最大熵模型,SVM,提升方法,EM算法(此方法不具有具体模型)隐马尔可夫模型,条件随机场。
初步看了,统计学习方法这本书里只是各种方法的罗列。 在翻看了该书的第一章节后发现,原来这一章节就是帮读者搭建框架的。 而恰恰就讲到了何为监督学习,以及把监督下面分成了“分类”,“标注”与“回归” 。 这与《图解机器学习》一书里的划分就一致了,“图解机器学习” 将方法分成了几大部分“有监督回归” “有监督分类” “无监督学习” “新兴机器学习算法” 。
《统计学习方法》一书中,把方法 = 模型 + 策略 + 算法
模型 : 在监督学习过程中,模型就是所要学习的条件概率分布或决策函数
策略: 从假设空间中选取最优模型,这就引入了损失函数与风险函数的概念
算法: 学习模型的具体计算方法