机器学习入门(十八)——PCA(下)

1.0 高维数据向低维数据映射

        仅仅提取一个数据集的n个主成分并没有对数据维度造成改变。但利用提取出的主成分能够选出使样本方差最大的(小于n个数的)维度,以此实现对数据降维的操作,将高维数据映射为低维数据。

        对于维度选择主要通过原数据集与主成分向量组成的矩阵进行乘机即可获得。例如,假设有以下两个矩阵,X是包含m个n为特征的数据样本,W_k是从X中提取的前k个主成分,W_k也是包含n个特征。

        将X从n维降到k维,只需要将XW_k相乘即可:X_k=X·W_k^T。该乘法的本质就是将X的每一行数据X^{(i)}映射到W_k构成的k维空间中,进而得到一组包含k个特征的向量,即完成了从n维到k维的映射。

        降维的过程中可能会丢失信息。如果原先的数据中本身存在一些无用信息,降维也可能会有降噪效果。

2.0 sklearn中的PCA分析

        首先准备数据集:


import numpy as np

import matplotlib.pyplot as plt

from sklearn import datasets

from sklearn.model_selection import train_test_split

from sklearn.neighbors import KNeighborsClassifier

digits = datasets.load_digits()

X = digits.data        # (1797, 64),64个特征

y = digits.target

X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=666)



        使用KNN算法进行数据模拟,并查看分类效果:


knn_clf = KNeighborsClassifier()

knn_clf.fit(X_train, y_train)

knn_clf.score(X_test, y_test)      # 输出:0.9866666666666667



        使用PCA进行降维,再使用KNN对降维后的数据进行拟合:


from sklearn.decomposition import PCA

pca = PCA(n_components=3)        # 将数据集的特征数量降到3维

pca.fit(X_train)

X_train_reduction = pca.transform(X_train)

X_test_reduction = pca.transform(X_test)

knn_clf2 = KNeighborsClassifier()

knn_clf.fit(X_train_reduction, y_train)

knn_clf.score(X_test_reduction, y_test)        # 输出:0.7644444444444445


        可以看到,数据经过降维由64个特征降到3个特征之后,使用相同模型再进行预测的精度也相应的降低了。说明在数据降维过程中损失了一部分有用的信息。

3.0 解释方差

        为了应对数据降维过程中的损失,PCA算法提供了一个特殊的指标pca.explained_variance_ratio_(解释方差比例),通过对方差水平的解释程度,反映降维后的数据集所保持的原数据集信息量的水平。仍以上面的digits为例:


print(pca.explained_variance_ratio_)

array([0.14566817, 0.13735469, 0.11777729])


        上面的打印结果就是主成分所解释的方差比例。

        对于现在的示例来说,0.14566817表示第一个主成分能够解释原数据14.56%的方差;0.13735469表示第二个主成分能够解释13.73%的方差,0.11777729第三个主成分能够解释11.78%的方差。三者之和约为40%,说明PCA降维后的数据涵盖了原数据总方差的约40%,剩余的60%都在降维过程中丢失掉了。

        再使用该示例,对于原来的64个特征的数据集提取64个主成分,结果能够解释100%的原数据方差。


pca = PCA(n_components=64)

pca.fit(X_train)

pca.explained_variance_ratio_        


        上面的矩阵即为64个主成分对于原数据方差解释程度的结果,将其求和得1.0000000000000002,说明解释了100%的原数据方差。此外还能注意到,随着主成分数量的增加,新增主成分对于原数据方差解释的比例在不断降低,后几个主成分甚至可忽略不计。因此,实际应用中可以通过累加占比的方式找出合适的主成分数量,使对原数据的方差解释长度达到确定的水平,进而达到满意的降维效果。

        绘制方差解释度的帕累托图:


plt.plot([i for i in range(X_train.shape[1])],

        [np.sum(pca.explained_variance_ratio_[:i+1]) for i in range(X_train.shape[1])])

plt.show()



        sklearn中,可以指定方差解释的程度,使程序自动选择生成的主成分数量。


pca = PCA(0.80)

pca.fit(X_train)

pca.n_components_        # 输出:13


X_train_reduction2 = pca.transform(X_train)      # 用降维后的数据建模

X_test_reduction2 = pca.transform(X_test)

knn_clf3 = KNeighborsClassifier()

knn_clf3.fit(X_train_reduction2, y_train)

knn_clf3.score(X_test_reduction2, y_test)      # 输出:0.9666666666666667


        使用这种达到较高精度的降维数据去进行模型训练,就能得到较好的结果。

4.0 PCA逆操作与降噪

        实际数据中不可避免地出现各种噪音,这些噪音的出现可能会对数据的准确性造成一定的影响。而主成分分析法还有一个用途就是降噪。

        PCA通过选取主成分将原有数据映射到低维数据再映射回高维数据的方式进行一定程度的降噪。构造一组数据作为示例:


import numpy as np

import matplotlib.pyplot as plt

X = np.empty((100, 2))

np.random.seed(666)

X[:,0] = np.random.uniform(0., 100., size=100)

X[:,1] = 0.75 * X[:,0] + 3. + np.random.normal(0, 5, size=100)

plt.scatter(X[:,0], X[:,1])

plt.show()



        使用PCA降维后数据进行inverse_transform,看数据集的变化:


from sklearn.decomposition import PCA

pca = PCA(n_components=1)

pca.fit(X)

X_reduction = pca.transform(X)

X_restore = pca.inverse_transform(X_reduction)

plt.scatter(X_restore[:,0], X_restore[:,1])

plt.show()


        比较上面两个图,可以明显看出还原后的数据不等同于原数据!这是因为在使用PCA降维时已经丢失了部分的信息。因此在还原时都是基于保留信息进行还原的,只能保证维度相同,但恢复的数据与原数据必然无法相同。

        但这样一来一回的操作,丢失掉部分信息就相当于降噪了。

        据降维还有一个作用是可视化,如将特征数量降到二维后就可以在平面坐标系中绘图显示(类似于统计中的对应分析)。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,547评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,399评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,428评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,599评论 1 274
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,612评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,577评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,941评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,603评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,852评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,605评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,693评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,375评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,955评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,936评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,172评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,970评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,414评论 2 342

推荐阅读更多精彩内容