机器学习之PCA-主成分分析

PCA简介

  PCA(PrincipalComponents Analysis)即主成分分析,是一个非监督的机器学习算法,它是最常用的降维方法之一,通过正交变换将一组可能存在相关性的变量数据转换为一组线性不相关的变量,转换后的变量被称为主成分。

  例如下图所示,样本有2个特征,现在对该样本进行降维处理。首先考虑直接选择特征1或者特征2降维,经过降维后的样本由2维降到1维,如图所示。


  可以看出剔除特征2降维比剔除特征1降维的样本间的间距更大,即样本可区分度更大。那是否还有其他的映射方式,使得映射后样本的间距更大,事实上还可以选择某个轴线,例如下图所示,样本映射到该轴线之后,有更大的间距。

  PCA降维的思想就是寻找某个轴线,使得样本映射到该轴线上后使得样本区分度更大。衡量可区分度的指标即方差(事实上,方差背后的意义就是数据的稀疏程度),现在的问题就是如何求得该轴线,使得方差的值最大。

求解思路

  用方差来定义样本的间距,方差越大表示样本分布越稀疏,方差越小表示样本分布越密集,方差的公式如下。


  在求解最大方差前,为了方便计算,可以先对样本进行demean(去均值)处理,即减去每个特征的均值,这种处理方式不会改变样本的相对分布(效果就像坐标轴进行了移动)。去均值后,样本x每个特征维度上的均值都是0,方差的公式转换成图示的公式。


  对于2个维度的样本,我们想要求一个轴的方向 w = (w1, w2) 使得我们所有的样本,映射到w以后方差最大,有:




  如下图所示,原始样本和映射后的样本有如下的空间几何关系。w为单位向量,所以w的模为1。



  样本x为已知,现在的目标转换成如下:

梯度上升发求解

公式推导



代码实现
初始样本准备

import numpy as np
import matplotlib.pyplot as plt

X = np.empty((200, 2))
X[:,0] = np.random.uniform(0., 100., size=200)
X[:,1] = 0.75 * X[:,0] + 1.5 + np.random.normal(0, 10., size=200)

plt.scatter(X[:,0], X[:,1])
plt.show()

开始对该样本进行降维处理

def demean(X):
    #  axis=0 是 矩阵X - X每一列的均值(即axis=0)  矩阵运算
    return X - np.mean(X, axis=0)

# pca 目标函数推导公式
def f(w, X):
    return np.sum((X.dot(w)**2)) / len(X)

# 求目标函数对应的梯度
def df_math(w, X):
    #即通过数学推导得出的求梯度公式
    return X.T.dot(X.dot(w)) * 2. / len(X)

def direction(w):
    # 由于w不一定是一个单位向量,把它转化成一个单位向量, w/w.模 
    return w / np.linalg.norm(w)

def gradient_ascent(df, X, initial_w, eta, n_iters = 1e4, epsilon=1e-8):
    
    w = direction(initial_w) 
    cur_iter = 0

    while cur_iter < n_iters:
        gradient = df(w, X)
        last_w = w
        w = w + eta * gradient
        w = direction(w) # 注意1:每次求一个单位方向,方便能得到一个合适的值方便计算
        if(abs(f(w, X) - f(last_w, X)) < epsilon):
            break
            
        cur_iter += 1

    return w

对样本X进行降维

X_mean = demean(X)  #去均值处理
initial_w = np.random.random(X.shape[1]) # 注意:不能用0向量开始
eta = 0.001 #  初始化步长
w = gradient_ascent(df_math, X_mean, initial_w, eta)  #降维并得出第一个方向,即第一个主成分,使得在该方向上进行映射可以有最大的间距(方差)

plt.scatter(X_mean[:,0], X_mean[:,1])
plt.plot([0, w[0]*30], [0, w[1]*30], color='r') # 将w表示的方向进行绘制,为了更清楚地展示,这里适当扩大w的表示范围(这里扩大了30倍),但是w0和w1比例要保持一致。
plt.show()
对样本X降维效果图.png

这里求的是第一主成分,在更高维度的空间,可能还需要继续求出其他的主成分,即降更多的维度。

求前n主成分

  对于只有2维特征的样本X,我们求解出了第一主成分,即w=(w1,w2),为了求解第二主成分,这里需要将样本X在第一主成分上的分量去除掉,这里使用的方法即空间几何的向量减法,得到的结果即下图中的绿线部分。
  在得到绿线部分的分量后,再对该分量重新求第一主成分,以此类推,可以得到前n个主成分。


求前n主成分代码实现

def f(w, X):
    return np.sum((X.dot(w)**2)) / len(X)

def df(w, X):
    return X.T.dot(X.dot(w)) * 2. / len(X)

def direction(w):
    return w / np.linalg.norm(w)

def first_component(X, initial_w, eta, n_iters = 1e4, epsilon=1e-8):
    
    w = direction(initial_w) 
    cur_iter = 0

    while cur_iter < n_iters:
        gradient = df(w, X)
        last_w = w
        w = w + eta * gradient
        w = direction(w) 
        if(abs(f(w, X) - f(last_w, X)) < epsilon):
            break
            
        cur_iter += 1

    return w

求解第2个主成分,首先求去除掉第一个主成分后样本的值

X = demean(X)
initial_w = np.random.random(X.shape[1])    
eta = 0.01
w = first_component(X, initial_w, eta) #这里求解出第一个主成分
X2 = np.empty(X.shape)  # 初始1个矩阵,和X的维度保持一致,用来存储去除掉第一个主成分分量后的样本
for i in range(len(X)):
    X2[i] = X[i] - X[i].dot(w) * w  # 得到每个样本在去除掉第一个主成分分量后的值

#将该分量绘制出来
plt.scatter(X2[:,0], X2[:,1])
plt.show() 

对剩下的分量求第一主成分

w2 = first_component(X2, initial_w, eta)

# 第一主成分和第二主成分结果相乘接近0,因为第一主成分和第二主成分垂直,所以矩阵相乘为0
w.dot(w2)

代码封装

#Author:Sunshine丶天

import numpy as np

class PCA:

    def __init__(self, n_components):
        """初始化PCA"""
        assert n_components >= 1, "n_components must be valid"
        self.n_components = n_components
        self.components_ = None

    def fit(self, X, eta=0.01, n_iters=1e4):
        """获得数据集X的前n个主成分"""
        assert self.n_components <= X.shape[1], \
            "n_components must not be greater than the feature number of X"

        def demean(X):
            return X - np.mean(X, axis=0)

        def f(w, X):
            return np.sum((X.dot(w) ** 2)) / len(X)

        def df(w, X):
            return X.T.dot(X.dot(w)) * 2. / len(X)

        def direction(w):
            return w / np.linalg.norm(w)

        def first_component(X, initial_w, eta=0.01, n_iters=1e4, epsilon=1e-8):

            w = direction(initial_w)
            cur_iter = 0

            while cur_iter < n_iters:
                gradient = df(w, X)
                last_w = w
                w = w + eta * gradient
                w = direction(w)
                if (abs(f(w, X) - f(last_w, X)) < epsilon):
                    break

                cur_iter += 1

            return w

        X_pca = demean(X)
        self.components_ = np.empty(shape=(self.n_components, X.shape[1]))
        for i in range(self.n_components):
            initial_w = np.random.random(X_pca.shape[1])
            w = first_component(X_pca, initial_w, eta, n_iters)
            self.components_[i,:] = w

            X_pca = X_pca - X_pca.dot(w).reshape(-1, 1) * w

        return self

    def transform(self, X):
        """将给定的X,映射到各个主成分分量中"""
        assert X.shape[1] == self.components_.shape[1]

        return X.dot(self.components_.T)

    def inverse_transform(self, X):
        """将给定的X,反向映射回原来的特征空间"""
        assert X.shape[1] == self.components_.shape[0]

        return X.dot(self.components_)

    def __repr__(self):
        return "PCA(n_components=%d)" % self.n_components

sklearn中的PCA

#Author:Sunshine丶天
from sklearn.decomposition import PCA
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn.neighbors import KNeighborsClassifier

digits = datasets.load_digits() # 加载波士顿房价数据
x = digits.data
y = digits.target


# 切分训练集和测试集
x_train,x_test,y_train,y_test = train_test_split(x,y,random_state = 666)
# 使用knn进行预测。
knn = KNeighborsClassifier()
knn.fit(x_train,y_train)
# 预测准确率
print(knn.score(x_test,y_test))

print('未降维之前的维数:', x.shape[1]) # 结果为64
pca = PCA(0.95)  # 传入的参数为0.95,代表保留的95%的信息
pca.fit(x_train)
print(pca.n_components_)  # 降维之后结果为28,由原来的64位降到28纬,保留95%的信息

x_train_reduction = pca.transform(x_train) #训练数据集降维
x_test_reduction = pca .transform(x_test)  #测试数据集也必须降维
knn = KNeighborsClassifier()
knn.fit(x_train_reduction,y_train)
print(knn.score(x_test_reduction,y_test))
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,657评论 6 505
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,889评论 3 394
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,057评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,509评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,562评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,443评论 1 302
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,251评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,129评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,561评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,779评论 3 335
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,902评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,621评论 5 345
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,220评论 3 328
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,838评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,971评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,025评论 2 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,843评论 2 354

推荐阅读更多精彩内容