Datawhale 零基础入门数据挖掘-Task3 特征工程

本次主要学习的是特征工程的相关内容


Datawhale 零基础入门数据挖掘-Task3 特征工程

常见的特征工程包括:

1、异常处理:

通过箱线图(或 3-Sigma)分析删除异常值;

BOX-COX 转换(处理有偏分布);

长尾截断;

2、特征归一化/标准化:

标准化(转换为标准正态分布);

归一化(抓换到 [0,1] 区间);

针对幂律分布,可以采用公式: log(\frac{1+x}{1+median} )

3、数据分桶:

等频分桶;

等距分桶;

Best-KS 分桶(类似利用基尼指数进行二分类);

卡方分桶;

4、缺失值处理:

不处理(针对类似 XGBoost 等树模型);

删除(缺失数据太多);

插值补全,包括均值/中位数/众数/建模预测/多重插补/压缩感知补全/矩阵补全等;

分箱,缺失值一个箱;

5、特征构造:

构造统计量特征,报告计数、求和、比例、标准差等;

时间特征,包括相对时间和绝对时间,节假日,双休日等;

地理信息,包括分箱,分布编码等方法;

非线性变换,包括 log/ 平方/ 根号等;

特征组合,特征交叉;

仁者见仁,智者见智。

6、特征筛选

过滤式(filter):先对数据进行特征选择,然后在训练学习器,常见的方法有 Relief/方差选择发/相关系数法/卡方检验法/互信息法;

包裹式(wrapper):直接把最终将要使用的学习器的性能作为特征子集的评价准则,常见方法有 LVM(Las Vegas Wrapper) ;

嵌入式(embedding):结合过滤式和包裹式,学习器训练过程中自动进行了特征选择,常见的有 lasso 回归;

7、降维

PCA/ LDA/ ICA;

特征选择也是一种降维。

删除异常值

这里有一个包装了的异常值代码

def outliers_proc(data, col_name, scale=3):

    """

    用于清洗异常值,默认用 box_plot(scale=3)进行清洗

    :param data: 接收 pandas 数据格式

    :param col_name: pandas 列名

    :param scale: 尺度

    :return:

    """

    def box_plot_outliers(data_ser, box_scale):

        """

        利用箱线图去除异常值

        :param data_ser: 接收 pandas.Series 数据格式

        :param box_scale: 箱线图尺度,

        :return:

        """

        iqr = box_scale * (data_ser.quantile(0.75) - data_ser.quantile(0.25))

        val_low = data_ser.quantile(0.25) - iqr

        val_up = data_ser.quantile(0.75) + iqr

        rule_low = (data_ser < val_low)

        rule_up = (data_ser > val_up)

        return (rule_low, rule_up), (val_low, val_up)

    data_n = data.copy()

    data_series = data_n[col_name]

    rule, value = box_plot_outliers(data_series, box_scale=scale)

    index = np.arange(data_series.shape[0])[rule[0] | rule[1]]

    print("Delete number is: {}".format(len(index)))

    data_n = data_n.drop(index)

    data_n.reset_index(drop=True, inplace=True)

    print("Now column number is: {}".format(data_n.shape[0]))

    index_low = np.arange(data_series.shape[0])[rule[0]]

    outliers = data_series.iloc[index_low]

    print("Description of data less than the lower bound is:")

    print(pd.Series(outliers).describe())

    index_up = np.arange(data_series.shape[0])[rule[1]]

    outliers = data_series.iloc[index_up]

    print("Description of data larger than the upper bound is:")

    print(pd.Series(outliers).describe())


    fig, ax = plt.subplots(1, 2, figsize=(10, 7))

    sns.boxplot(y=data[col_name], data=data, palette="Set1", ax=ax[0])

    sns.boxplot(y=data_n[col_name], data=data_n, palette="Set1", ax=ax[1])

    return data_n

特征构造——数据分桶

进行数据分桶的原因:

# 1. 离散后稀疏向量内积乘法运算速度更快,计算结果也方便存储,容易扩展;

# 2. 离散后的特征对异常值更具鲁棒性,如 age>30 为 1 否则为 0,对于年龄为 200 的也不会对模型造成很大的干扰;

# 3. LR 属于广义线性模型,表达能力有限,经过离散化后,每个变量有单独的权重,这相当于引入了非线性,能够提升模型的表达能力,加大拟合;

# 4. 离散后特征可以进行特征交叉,提升表达能力,由 M+N 个变量编程 M*N 个变量,进一步引入非线形,提升了表达能力;

# 5. 特征离散后模型更稳定,如用户年龄区间,不会因为用户年龄长了一岁就变化

数据的处理有时需要进行取对数、归一化

特征筛选

最简单的方法就是看各变量之间的相关性矩阵热图

data_numeric = data[['power', 'kilometer', 'brand_amount',  'brand_price_average','brand_price_max', 'brand_price_median']]

correlation = data_numeric.corr()

f , ax = plt.subplots(figsize = (7, 7))

plt.title('Correlation of Numeric Features with Price',y=1,size=16)

sns.heatmap(correlation,square = True,  vmax=0.8)

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容