机器学习:09. 降维算法

降维(PCA)

PCA能够将原始数据集中重要的数据进行聚集。
降维是减少特征的数量,又保留大部分有效信息——将那些带有重复信息的特征合并,并删除那些带无效信息的特征等等——逐渐创造出能够代表原特征矩阵大部分信息的,特征更少的,新特征矩阵。
在降维中,PCA使用的信息量衡量指标,就是样本方差,又称可解释性方
差,方差越大,特征所带的信息量越多。

二维数据降维

image.png

在步骤3当中,我们用来找出n个新特征向量,让数据能够被压缩到少数特征上并且总信息量不损失太多的技术就是矩阵分解。

PCA和特征选择的不同之处?

  1. 特征选择是从已存在的特征中选取携带信息最多的,选完之后的特征依然具有可解释性,我们依然知道这个特征在原数据的哪个位置,代表着原数据上的什么含义。
  2. PCA在新的特征矩阵生成之前,我们无法知晓PCA都建立了怎样的新特征向
    量,新特征矩阵生成之后也不具有可读性。
  3. PCA一般不适用于探索特征和标签之间的关系的模型(如线性回归),因为无法解释的新特征和标签之间的关系不具有意义。在线性回归模型中,我们使用特征选择。

重要参数n_components

  1. n_components是我们降维后需要的维度,即降维后需要保留的特征数量,降维流程中第二步里需要确认的k值,一般输入[0, min(X.shape)]范围中的整数。
  2. PCA的最大似然估计(maximum likelihood estimation)自选超参数的方法,输入“mle”作为n_components的参数输入,就可以调用这种方法。
pca_mle = PCA(n_components="mle")
pca_mle = pca_mle.fit(X)
X_mle = pca_mle.transform(X)
  1. 输入[0,1]之间的浮点数,并且让参数svd_solver =='full',表示希望降维后的总解释性方差占比大于n_components指定的百分比,即是说,希望保留百分之多少的信息量
pca_f = PCA(n_components=0.97,svd_solver="full") #降维后保留97%的信息量
pca_f = pca_f.fit(X)
X_f = pca_f.transform(X)
pca_f.explained_variance_ratio_

重要参数svd_solver

参数svd_solver是在降维过程中,用来控制矩阵分解的一些细节的参数。有四种模式可选:"auto", "full", "arpack", "randomized",默认”auto"。通常我们就选用”auto“,不必对这个参数纠结太多。

重要属性components_

V(k,n)是新特征空间,是我们要将原始数据进行映射的那些新特征向量组成的矩阵。在矩阵分解时,PCA是有目标的:在原有特征的基础上,找出能够让信息尽量聚集的新特征向量。在sklearn使用的PCA和SVD联合的降维方法中,这些新特征向量组成的新特征空间其实就是V(k,n)。

重要接口inverse_transform

pca = PCA(150)
X_dr = pca.fit_transform(X)
X_dr.shape
X_inverse = pca.inverse_transform(X_dr)
X_inverse.shape

Inverse_transform的功能,是基于X_dr中的数据进行升维,将数据重新映射到原数据所在的特征空间中,而并非恢复所有原有的数据。所以,降维不是完全可逆的。
inverse_transform能够在不恢复原始数据的情况下,将降维后的数据返回到原本的高维空间,即是说能够实现保证维度,但去掉方差很小特征所带的信息。

案例:PCA对手写数字数据集的降维

1 导入需要的模块和库

from sklearn.decomposition import PCA
from sklearn.ensemble import RandomForestClassifier as RFC
from sklearn.model_selection import cross_val_score
import matplotlib.pyplot as plt
import pandas as pd
import numpy as np

2 导入数据

data = pd.read_csv(r"C:\Users\18700\Desktop\04主成分分析PCA与奇异值分解SVD\digit recognizor.csv")
X = data.iloc[:,1:]
y = data.iloc[:,0]
X.shape
#(42000, 784)

3 画累计方差贡献率曲线,找最佳降维后维度的范围

pca_line = PCA().fit(X) #PCA不填是返回min(X.shape)
# pca_line = PCA().fit(X) #PCA不填是返回min(X.shape)
# pca_line.explained_variance_ratio_ #每个特征的贡献率

plt.figure(figsize=[20,5])
plt.plot(np.cumsum(pca_line.explained_variance_ratio_)) #cumsum特征依次求和1,1+2,1+2+3
plt.xlabel("number of components after dimension reduction")
plt.ylabel("cumulative explained variance ratio")
plt.show()
可以看到在100左右转折

4 降维后维度的学习曲线,继续缩小最佳维度的范围

score = []
for i in range(1,101,10):
    X_dr = PCA(i).fit_transform(X)
    #用降维的X_dr
    once = cross_val_score(RFC(n_estimators=10,random_state=0),X_dr,y,cv=5).mean() #cross_val_score(模型,x,y,cv)
    score.append(once)
    
plt.figure(figsize=[20,5])
plt.plot(range(1,101,10),score)
plt.show()
结果显示降维后,只要降到20维左右,就可以得到最佳的模型

5 细化学习曲线,找出降维后的最佳维度

score = []
for i in range(10,25): #10-25继续遍历
    X_dr = PCA(i).fit_transform(X)
    once = cross_val_score(RFC(n_estimators=10,random_state=0),X_dr,y,cv=5).mean() #cross_val_score(模型,x,y,cv)
    score.append(once)
    
plt.figure(figsize=[20,5])
plt.plot(range(10,25),score)
plt.show()
可以看到22是最佳的n_compnments取值

6 导入找出的最佳维度进行降维,查看模型效果

X_dr = PCA(22).fit_transform(X) #X_dr就是降到21维的新特征矩阵
X_dr.shape
cross_val_score(RFC(n_estimators=10,random_state=0),X_dr,y,cv=5).mean() #调整n_estimators的参数
cross_val_score(RFC(n_estimators=100,random_state=0),X_dr,y,cv=5).mean()

输出结果

(42000, 22)
0.9158571428571427
0.9458333333333334

7 KNN模型
现在特征数量已经降到不足原来的3%,可以使用KNN。

from sklearn.neighbors import KNeighborsClassifier as KNN #导入最近邻分类器
cross_val_score(KNN(),X_dr,y,cv=5).mean() #KNN默认K=5

8 KNN的k值学习曲线

score = []
for i in range(10):
    #X_dr = PCA(22).fit_transform(X)
    once = cross_val_score(KNN(i+1),X_dr,y,cv=5).mean() #k取1-10
    score.append(once)
    
plt.figure(figsize=[20,5])
plt.plot(range(10),score)
plt.show()
可以看到当i=4的时候,模型结果最好,所以k=5.

9 定下超参数后,模型效果如何

cross_val_score(KNN(5),X_dr,y,cv=5).mean() 

# %%timeit
# cross_val_score(KNN(5),X_dr,y,cv=5).mean()

输出结果

0.9699047619047618

可以发现,原本785列的特征被我们缩减到23列之后,用KNN跑出了目前位置这个数据集上最好的结果。再进行更细致的调整,我们也许可以将KNN的效果调整到98%以上。

总之,对于一个数据先进行PCA降维处理,再做特征选择处理。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,490评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,581评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 165,830评论 0 356
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,957评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,974评论 6 393
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,754评论 1 307
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,464评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,357评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,847评论 1 317
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,995评论 3 338
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,137评论 1 351
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,819评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,482评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,023评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,149评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,409评论 3 373
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,086评论 2 355

推荐阅读更多精彩内容