网上较为混乱,书上看过又忘了,查找不便,特地总结于此。
首先吐槽一点,我记不住,当然有个人记性不好的原因,但更重要的是,本身概念就是混乱的,如身边的同事、网上各类业余的文章(很多文章是有误导性的),甚至某些论文里的定义都不太一样。
进行数据尺度变化的目的,在于更好的训练模型,详见参考资料3。在聚类算法中,不进行尺度变化,会导致错误的结果(量纲不同,取值较小的特征会被取值较大的特征淹没),至于决策树类的算法倒是无此问题(计算信息增益比,是否尺度变化并不影响)。
1、标准化,standardization
scaling,是将数据按比例缩放,使之落入一个小的特定区间。
零均值标准化(z-score standardization),,分布转换为正态分布,均值为0,方差为1,取值[-1,1]。该方法对异常值、噪声不敏感,应用最为广泛,一般在涉及距离度量计算相似性(如KNN、Kmeans聚类)或PCA(核心是计算方差、协方差)时使用。
线性归一化(min-max normalization),该方法在sklearn中被称为另一种形式的standardization。通过对原始数据的线性变换,使结果落到[0,1]区间。该方法对原始数据进行线性变化,可保持原始数据之间的联系,缺陷是当有新数据加入时,最大最小值可能改变,需重新计算转换函数。
有朋友可能会问,那在PCA时使用最大最小标准化代替零均值标准化可以么?参考资料3中给出了清晰的证明,有兴趣的朋友可以阅读,大意就是,最大最小标准化使得协方差产生了倍数值缩放,无法消除量纲的影响。
因此,如果需要每个特征值都对整体归一化产生一定影响的话(和分布相关的话),选择零均值标准化。
2、归一化,normalization
在sklearn中定义为, 缩放单个样本使其具有单位范数的过程,计算方式是计算每个样本的p范数,然后对该样本中的每个元素除以该范数,使得处理后样本的p范数等于1,把数变为(0-1)之间的小数,消除量纲。
该方法主要应用于文本分类和聚类,例如对于TF-IDF向量的l2-norm点积,即得到这两个向量的余弦相似度。
3、正则化,regularization
机器学习中对损失函数的操作,非数据特征集进行的尺度变化。
4、其他
映射到其他分布,如指定区间、均匀分布、高斯分布、np.log1p等,特别是对于较多异常值的数据集时,采用robust_scale、RobustScaler是更好的选择。
阅读sklearn文档是学习机器学习最好的方式。
附,参考资料:
1、sklearn文档,4.3. 预处理数据,https://www.studyai.cn/modules/preprocessing.html
2、几种数据预处理方法综述,https://www.pythonf.cn/read/152530
3、特征归一化特性及其数学原理推导,http://www.bewindoweb.com/216.html