机器学习——sklearn特征选择

机器学习过程中,面对纷纭杂乱的指标,究竟哪些特征才是对我们的分析有作用。通常我们会根据业务理解来选择指标,这不仅对业务基础依赖大,且效率低。就此,此处借助大神WillKoehrsen开发的特征选择工具——feature-selector,跟其作者思路,转变为自己理解的语言,以记录自己的学习过程。

feature-selector,特征选择器,其主要提供以下5种特征选择方法:
1.高百分比的缺失值特征选择法
2.共线(高度相关)特征选择法
3.树型结构模型中的零重要性特征选择法
4.低重要性特征选择法
5.唯一值特征选择法

一、读取数据
1.导入数据

from feature_selector import FeatureSelector
import pandas as pd

train = pd.read_table('C:\\Users\\SYH\\Desktop\\qdn_76.csv')
train_labels = train['is_out']
print(train.head())

运行结果:
user_id cust_id ... DOUBLE_CARD_STAY is_hk
0 10006294220 105768150 ... 0 0
1 10006504517 113020291 ... 0 0
2 10012770118 3010291266 ... 1 0
3 10015964320 3013178745 ... 0 0
4 10016313733 3013499030 ... 1 0

[5 rows x 182 columns]

2.建立特征选择器
建立特征选择器之前,我们先分离特征字段与目标字段:

train = train.drop(columns = ['is_out'])

即从原数据集中删除目标字段“is_out”,得到新的训练集。接下来构建特征选择器:

fs = FeatureSelector(data = train, labels = train_labels)

二、特征选择
1.缺失值特征选择
该方法是选出指定阈值缺失值占比的特征,如上训练集,筛选出缺失值超过60%的指标:

fs.identify_missing(missing_threshold = 0.6)

运行结果:
9 features with greater than 0.60 missing values.

即该训练集中,有9个指标的缺失值超过了样本量的60%。

注:数据集中缺失值必须为空,否则将无法识别,如缺失值标识为"(null)"就无法识别为缺失值!

按列显示缺失值的指标及占比:

print(fs.missing_stats.head())

运行结果:
missing_fraction
TERMCHG_CYCLE 0.972716
TERM_PRICE 0.937626
DOUBLE_CARD_STAY 0.826867
AFTER_CAMERAPIXELS 0.826867
PRE_CAMERAPIXELS 0.826867

即如TERMCHG_CYCLE字段,缺失值占比97%。

通过FeatureSelector类的ops方法选出缺失值指标:

missing_features = fs.ops['missing']
print(missing_features)

运行结果:
['TERMCHG_CYCLE', 'TERM_PRICE', 'IMEI_ONLINE', 'num_sim', 'num_term', 'TERM_TYPE', 'PRE_CAMERAPIXELS', 'AFTER_CAMERAPIXELS', 'DOUBLE_CARD_STAY']

构建缺失值占特征比例的分布图:

fs.plot_missing()

小菜我运行此语句不报错,但无图片生成,还望路过的大神指点,甚谢!!!

2.唯一值特征
唯一值特征,即选择出只包含一个数据的指标。一个指标只有一个数据,对分析无任何帮助,且耗时,故需删除。

显示训练集中唯一值特征的数量:

fs.identify_single_unique()

运行结果:
3 features with a single unique value.

即该训练集中有3个指标为唯一值指标。

显示具体是哪3个指标为唯一值:

single_unique = fs.ops['single_unique']
print(single_unique)

运行结果:
['userstatus_id', 'DATA_MARK', 'VILLAGE_VPMN_MARK']

绘制各个区间唯一值数量的直方图:

fs.plot_unique()

同样无图片输出!!!

3.共线特征
共线特征即找出具有高度相关的指标。在机器学习中,由于共线特征的高方差和低模型可解释性,会导致测试集的泛化性能下降。
identify_collinear方法根据指定的[相关系数]值查找共线特征,将相关特征对中的一个标识为要删除特征(因为只需要删除一个)。
找出相关性在95%及以上的指标:

fs.identify_collinear(correlation_threshold=0.95)

运行结果:
51 features with a correlation magnitude greater than 0.95.
即有51个指标相关性在95%以上。

显示具体哪些指标:

correlated_features = fs.ops['collinear']
print(correlated_features)

运行结果:
['a3_avg_call_cnt', 'avg_call_cnt', ……, 'avg_call_sum']

基于相关性的热度图,该图显示了相关性超过阈值的所有特征:

fs.plot_collinear()

也传入plot_all = True给调用,绘制所有数据相关性的图表:

fs.plot_collinear(plot_all=True)

显示共线性指标及相关性:

print(fs.record_collinear)

以上我们通过几种方法找出了一些不必要的指标,接下来我们可以通过remove方法,删除这些不必要的指标。
删除缺失值超阈值的指标,得到新的训练集train_no_missing :

train_no_missing = fs.remove(methods = ['missing'])

运行结果:
Removed 9 features.

同时删除“缺失值超阈值”和“共线性指标”:

train_no_missing = fs.remove(methods = ['missing', 'collinear', 'single_unique'])

详文英文版中文版

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容