深度学习知识点汇总-机器学习基础(11)

2.11 PCA的算法原理和流程

基于最小投影距离为评价指标推理:

假设数据集是mn维数据,(x^{(1)}, x^{(2)},...,x^{(m)}),也就是默认为nm列的矩阵。这个矩阵的数据已经进行了中心化。经过投影变换得到新坐标为 {w_1,w_2,...,w_{n'}},其中 w 是标准正交基,即 | w |_2 = 1w^T_iw_j = 0

  • 降维
    ​经过降维后,新坐标为 { w_1,w_2,...,w_{n'} },其中 n' 是降维后的目标维数。样本点 x^{(i)} 在新坐标系下的投影为 z^{(i)} = \left(z^{(i)}_1, z^{(i)}_2, ..., z^{(i)}_{n'} \right),其中 z^{(i)}_j = w^T_j x^{(i)}x^{(i)} 在低维坐标系里第j维的坐标值。
  • 升维
    ​如果用 z^{(i)} 去恢复 x^{(i)} ,则得到的恢复数据为 \widehat{x}^{(i)} = \sum^{n'}_{j=1} x^{(i)}_j w_j = Wz^{(i)},其中 W为标准正交基组成的矩阵。

​考虑到整个样本集,样本点到这个超平面的距离足够近,目标变为最小化 \sum^m_{i=1} | \hat{x}^{(i)} - x^{(i)} |^2_2 。对此式进行推理,可得:

\begin{aligned} \sum^m_{i=1} | \hat{x}^{(i)} - x^{(i)} |^2_2 &= \sum^m_{i=1} | Wz^{(i)} - x^{(i)} |^2_2 \\ &= \sum^m_{i=1} \left( Wz^{(i)} \right)^T \left( Wz^{(i)} \right) - 2\sum^m_{i=1} \left( Wz^{(i)} \right)^T x^{(i)} + \sum^m_{i=1} \left( x^{(i)} \right)^T x^{(i)} \\ &= \sum^m_{i=1} \left( z^{(i)} \right)^T \left( z^{(i)} \right) - 2\sum^m_{i=1} \left( z^{(i)} \right)^T z^{(i)} + \sum^m_{i=1} \left( x^{(i)} \right)^T x^{(i)} \\ &= - \sum^m_{i=1} \left( z^{(i)} \right)^T z^{(i)} + \sum^m_{i=1} \left( x^{(i)} \right)^T x^{(i)} \\ &= -tr \left( W^T \left( \sum^m_{i=1} x^{(i)} \left( x^{(i)} \right)^T \right)W \right) + \sum^m_{i=1} \left( x^{(i)} \right)^T x^{(i)} \\ &= -tr \left( W^TXX^TW \right) + \sum^m_{i=1} \left( x^{(i)} \right)^T x^{(i)} \end{aligned}

​在推导过程中,用到了:

  • \hat{x}^{(i)} = Wz^{(i)}
  • 矩阵转置公式 (AB)^T = B^TA^T
  • W^TW = I
  • z^{(i)} = W^Tx^{(i)} 以及矩阵的迹。

最后两步是将代数和转为矩阵形式。 由于 W 的每一列向量 w_j 是标准正交基,\sum^m_{i=1} x^{(i)} \left( x^{(i)} \right)^T 是数据集的协方差矩阵,\sum^m_{i=1} \left( x^{(i)} \right)^T x^{(i)} 是一个常量(因为归一化了)。最小化 \sum^m_{i=1} | \hat{x}^{(i)} - x^{(i)} |^2_2 的问题可以等价于
\underbrace{\arg \min}_W - tr \left( W^TXX^TW \right) \\ s.t. \ W^TW = I

利用拉格朗日函数可得到
J(W) = -tr(W^TXX^TW) + \lambda(W^TW - I)

W 求导,可得 -XX^TW + \lambda W = 0 ,也即 XX^TW = \lambda WWn' 个特征向量组成的矩阵,\lambdaXX^T 的特征值。W 即为我们想要的矩阵。 对于原始数据,只需要z^{(i)} = W^TX^{(i)} ,就可把原始数据集降维到最小投影距离的 n' 维数据集。

由上述分析,得到PCA的算法流程

输入:n 维样本集 D = \left( x^{(1)},x^{(2)},...,x^{(m)} \right) ,目标降维的维数 n'
输出:降维后的新样本集 D' = \left( z^{(1)},z^{(2)},...,z^{(m)} \right)
主要步骤如下:

  1. 归一化。对所有的样本进行中心化,x^{(i)} = x^{(i)} - \frac{1}{m} \sum^m_{j=1} x^{(j)}
  2. 计算样本的协方差矩阵 XX^T
  3. 对协方差矩阵 XX^T 进行特征值分解。
  4. 取出最大的 n' 个特征值对应的特征向量 { w_1,w_2,...,w_{n'} }
  5. 标准化特征向量,得到特征向量矩阵 W
  6. 转化样本集中的每个样本 z^{(i)} = W^T x^{(i)}
  7. 得到输出矩阵 D' = \left( z^{(1)},z^{(2)},...,z^{(n)} \right)
    :在降维时,有时不明确目标维数,而是指定降维到的主成分比重阈值k \ (k \in (0,1]) 。假设 n 个特征值为 \lambda_1 \geqslant \lambda_2 \geqslant ... \geqslant \lambda_n ,则 n' 可从 \sum^{n'}_{i=1} \lambda_i \geqslant k \times \sum^n_{i=1} \lambda_i 得到。

PCA算法主要优缺点
优点:

  • 仅仅需要以方差衡量信息量,不受数据集以外的因素影响。
  • 各主成分之间正交,可消除原始数据成分间的相互影响的因素。
  • 计算方法简单,主要运算是特征值分解,易于实现。

缺点:

  • 主成分各个特征维度的含义具有一定的模糊性,不如原始样本特征的解释性强。
  • 方差小的非主成分也可能含有对样本差异的重要信息,因降维丢弃可能对后续数据处理有影响。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,076评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,658评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,732评论 0 350
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,493评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,591评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,598评论 1 293
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,601评论 3 415
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,348评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,797评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,114评论 2 330
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,278评论 1 344
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,953评论 5 339
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,585评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,202评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,442评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,180评论 2 367
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,139评论 2 352

推荐阅读更多精彩内容