机器学习的特征选择方法总结

特征选择是机器学习非常重要的一环。之所以要考虑特征选择,是因为机器学习经常面临过拟合的问题。
过拟合的表现是模型参数太贴合训练集数据,模型在训练集上效果很好而在测试集上表现不好,也就是在高方差。简言之模型的泛化能力差。过拟合的原因是模型对于训练集数据来说太复杂,要解决过拟合问题,一般考虑如下方法:

  1. 收集更多数据
  2. 通过正则化引入对复杂度的惩罚
  3. 选择更少参数的简单模型
  4. 对数据降维
    其中第1条一般是很难做到的,这篇我们主要梳理第2和第4点
  • 通过正则化:
    对于参数模型(parametric model),最简单直接的方法是L1正则化来降维。参数模型是什么?是可由公式表达的、有\betaw参数的模型。这种模型在训练集上学习得到一个公式表达式,对于新的测试数据,可以直接由表达式算出预测结果,预测的时候不再需要训练集。参数模型的代表有逻辑回归,线性回归,神经网络等。正则化分为L1和L2, L1用L1范数最小化代价函数的SSE,可以把某些特征压缩到0,相当于特征选择了。而L2用L2范数最小化代价函数的SSE,只能把某些特征压缩到很小的值,但不可能是0。

  • 对于非参数模型(nonparametric model) , 很有用的办法是通过特征选择来降维。
    降维有两种方式:特征选择和特征抽取。特征选择是直接选特征子集(本篇写的是特征选择)。特征抽取是把特征映射到低维空间(PCA是代表之一,在另一篇里已经写过了)。
    特征选择有三个层面的方法:这里分别介绍。

  1. Wrapper方法。属于Wrapper的还有exhaustive search BFS (Breadth First Search), Non-exhaustive search (Branch and Bound Search), heuristic search(SFS, SBS, SDS), Random Search (RGSS) . 总体来讲,Wrapper的实现原理是:基于hold-out方法,对于每一个待选的特征子集,都在训练集上训练一遍模型,然后在测试集上根据误差大小选择出特征子集。
    这里重点写heuristic search(SFS, SBS, SDS)里的SBS。 heuristic search一般也被称为Sequential feature selection。这是一种贪婪搜索算法,可以将d维数据筛选到k维。它可以去除无关的特征或嗓音,保留对目标最有用的特征, 它的目标就是减少误差(模型方差),它其中又以Sequential Backward Selection(SBS)为代表。
    SBS的工作原理是:从特征全集里逐个去除单个特征,直至剩余的特征子集达到期望的维度。那么如何逐个去除呢?我们先定义一个标准函数J,借助J的变化来判断每一步应该去除哪个特征。一般而言,J就是模型的代价函数,这里记住我们降维的最终目标是让代价函数最优(最小化)。所以最简单的方法可以是:,我们用 J_i-J_{i+1}作为判断标准,每一步的时候哪个特征让这个标准最大化,我们就去除哪个标准。或者可以这样理解,我们在每一步时选择去掉的是最不会导致模型变更差的那个特征。
    但是SBS在SKLEARN里没有现成的包。这里给出伪代码:

    Screen Shot 2018-09-05 at 10.19.28 AM.png

  2. Embedded 方法
    故名思义,Embedded是指特征选择算法是学习算法的一部分,已经被整合进学习算法里了。最具代表性的如决策树算法,因为它本身就是基于信息增益的一种算法,一个特征里包括的同一分类的孩子节点越多,这个特征就越显著(白种人里有美英法意等等,黄种人里有中日韩等等,人的分类可以根据肤色往下细分。所以肤色就是决策树首先考虑的一个显著特征)。所以,决策树本身的生成就是在做特征选择。决策树有ID3, C4.5, CART树。其中ID3只用于连续型变量,C4.5和CART树可以用于连续变量也可以用于分类变量。

  3. Filter方法
    就是对特征打分,再根据阈值选择特征。Filter方法独立于模型本身,它的结果比Wrapper方法更有普适性,计算性能好于Wrapper,所以有时候它被用于Wrapper方法之前的预处理。
    Filter方法包括:distance metrics, correlation, mutual information, and consistency metrics
    其中correlation方法是计算特征之间的独立性。通常用皮尔逊相关系数为指标。mutual information比correlation更有普适性,它描述了p(x,y)和p(x)*p(y)有多么相关。consistency metrics通常用卡方检验,其思想是找出和预测目标不相关的特征,所以其过程是计算每个特征和预测目标的卡方统计量。

福利:
贪婪搜索算法(greedy search)是局部最优算法。与之对应的是穷举算法 (exhaustive search),穷举算法是遍历所有可能的组合达到全局最优级,但是计算复杂度是2^n,一般是不太实际的算法。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,530评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 86,403评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,120评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,770评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,758评论 5 367
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,649评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,021评论 3 398
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,675评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,931评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,659评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,751评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,410评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,004评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,969评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,203评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,042评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,493评论 2 343

推荐阅读更多精彩内容