奇异值分解

奇异值分解我写过一个简短的理解,记录于https://www.jianshu.com/p/8c7dac32620f
这次又写一遍完全是因为《统计学习方法》的奇异值分解讲得太详细了,占了25页的篇幅,且大致翻看后面章节后发现奇异值分解的应用很多,因此决定对奇异值分解再重新学习一遍。

1、奇异值分解的定义与基本性质

任意一个m\times n矩阵,都可以表示为三个矩阵的乘积(因子分解)形式:

A=U\Sigma V^T

其中Um阶正交矩阵、\Sigma是由降序排列的非负的对角线元素组成的m\times n矩形对角阵、Vn阶正交矩阵。即这三个矩阵满足:

UU^T=I

VV^T=I

\Sigma=diag(\sigma_1,\sigma_2,\dots,\sigma_p)

\sigma_1\geq \sigma_2\geq \dots \geq \sigma_p\geq 0

p=\min(m,n)

U\Sigma V^T称为矩阵A的奇异值分解(singular value decomposition,SVD)。

奇异值分解基本定理:若A为一个m\times n实矩阵,A\in R^{m\times n},则A的奇异值分解存在。

证明:

证明是构造性的,对给定矩阵,不妨设m\geq n

(1)确定V\Sigma

矩阵Am\times n实矩阵,则A^T An阶实对称矩阵,因而A^T A的特征值都是实数,且存在一n阶正交实矩阵V实现A^T A的对角化,使得V^T (A^T A)V=\Lambda,其中\Lambdan阶对角矩阵,其对角线元素由A^T A的特征值组成,且A^T A的特征值都是非负的。事实上,令\lambdaA^T A的一个特征值,x是对应的特征向量,则:

||Ax||^2=x^T A^T Ax=\lambda x^T x=\lambda ||x||^2

于是:

\lambda=\frac{||Ax||^2}{||x||^2}\geq 0

假设正交矩阵V的列的排列使得对应特征值形成降序排列:

\lambda_1\geq \lambda_2\geq \dots\geq \lambda_n\geq 0

计算特征值平方根(实际就是矩阵A的奇异值):

\sigma_i=\sqrt{\lambda_i},\quad i=1,2,\dots,n

设矩阵A的秩为r,则矩阵A^T A的秩也为r(通过证明Ax=0A^T Ax=0同解即可证明)。由于A^T A是对称矩阵,它的秩等于正的特征值的个数(因为A^T A和与其相似的对角矩阵\Lambda秩相等,而\Lambda对角元素是A^T A的特征值)。所以:

\lambda_1\geq \lambda_2\geq \dots\geq \lambda_r\geq 0,\quad \lambda_{r+1}=\dots=\lambda_n=0

从而:

\sigma_1\geq \sigma_2\geq \dots\geq \sigma_r\geq 0,\quad \sigma_{r+1}=\dots=\sigma_n=0

令:

V_1=[v_1\quad v_2\quad \dots \quad v_r]\quad V_2=[v_{r+1}\quad v_{r+2}\quad \dots \quad v_n]

其中V_1为正特征值对应的特征向量组成的矩阵,V_2则为0特征值对应的特征向量组成的矩阵。从而V可以写成:

V=[V_1\quad V_2]

这就是矩阵A的奇异值分解中的正交矩阵V

令:

\Sigma_1=\left\{ \begin{matrix} \sigma_1 & & &\\ & \sigma_2 & &\\ & & \dots & \\ & & & \sigma_r \end{matrix} \right\}

于是m\times n矩阵对角矩阵\Sigma可以表示为:

\Sigma=\left\{ \begin{matrix} \Sigma_1&0\\ 0&0 \end{matrix} \right\}

这就是矩阵A奇异值分解中的\Sigma

(2)确定U

令:

u_j=\frac{1}{\sigma_j}Av_j,\quad i=1,2,\dots,r

U_1=[u_1\quad u_2\quad \dots\quad u_r]

则有:

AV_1=U_1\Sigma_1

U_1的列向量构成了一组标准正交基,因为:

\begin{aligned} u_i^T u_j&=(\frac{1}{\sigma_i}v_i^T A^T)(\frac{1}{\sigma_j}Av_j)\\ &=\frac{1}{\sigma_i \sigma_j}v_i^T(A^T Av_j)\\ &=\frac{1}{\sigma_i \sigma_j}v_i^T(\sigma_j^2 v_j)\\ &=\frac{\sigma_j}{\sigma_i}v_i^T v_j\\ &=\delta_{ij},\quad i=1,2,\dots,r,\quad j=1,2,\dots,r \end{aligned}

因为i\neq j时,v_iv_j正交。故有:

\begin{equation} \delta_{ij}=\left\{ \begin{array}{rcl} 1 & & {i=j}\\ 0 & & {i\neq j} \end{array} \right. \end{equation}

所以U_1的列向量构成了一组标准正交基。

若将A看成从R^nR^m的线性变换,则A的列空间和A的值域R(A)相同。因此u_1,u_2,\dots,u_r也是R(A)的一组标准正交基。因为N(A^T)=R(A)^\perp(即A^T的零空间和R(A)的正交补相同),故N(A^T)的维数为m-r

\{u_{r+1},u_{r+2},\dots,u_m\}N(A^T)的一组标准正交基,并令:

U_2=[u_{r+1}\quad u_{r+2}\quad \dots \quad u_m]

U=[U_1\quad U_2]

u_1,u_2,\dots,u_m构成了R^m的一组标准正交基。因此U就是A的奇异值分解中的m阶正交矩阵。

(3)证明A=U\Sigma V^T

\begin{aligned} U\Sigma V^T&=[U_1\quad U_2]\lgroup{ \begin{matrix} \Sigma_1&0\\ 0&0 \end{matrix} \rgroup}\lgroup{ \begin{matrix} V_1^T\\ V_2^T \end{matrix} \rgroup}\\ &=U_1\Sigma_1 V_1^T\\ &=AV_1V_1^T\\ &=A \end{aligned}

至此证明了矩阵A存在奇异值分解。

2、紧奇异值分解与截断奇异值分解

上述定理给出的奇异值分解A=U\Sigma V^T称为矩阵的完全奇异值分解。实际常用的是奇异值分解的紧凑形式和截断形式。紧奇异值分解是与原始矩阵等秩的奇异值分解,截断奇异值分解是比原始矩阵低秩的奇异值分解。

紧奇异值分解定义

设有m\times n实矩阵A,其秩为rank(A)=r\leq\min(m,n),则称U_r\Sigma_r V_r^TA的紧奇异值分解:

A=U_r\Sigma_r V_r^T

U_rm\times r矩阵,由完全奇异值分解中U的前r列得到,V_rn\times r矩阵,由完全奇异值分解中V的前r列得到,\Sigma_rr阶对角矩阵,由完全奇异值分解中\Sigma的前r个对角线元素得到。

截断奇异值分解定义:

设有m\times n实矩阵A,其秩为rank(A)=r,且0<k<r,则称U_k\Sigma_k V_k^TA的截断奇异值分解:

A\approx U_k\Sigma_k V_k^T

U_km\times k矩阵,由完全奇异值分解中U的前k列得到,V_kn\times k矩阵,由完全奇异值分解中V的前k列得到,\Sigma_kk阶对角矩阵,由完全奇异值分解中\Sigma的前k个对角线元素得到。

注意,紧奇异值分解完全还原原矩阵,截断奇异值分解近似还原原矩阵。因此在对矩阵数据进行压缩时,紧奇异值分解对应无损压缩,截断奇异值分解对应有损压缩。

3、几何解释

从线性变换的角度理解奇异值分解,m\times n矩阵表示从n维空间R^nm维空间R^m的一个线性变换:

T:x\rightarrow Ax

x\in R^nAx\in R^mxAx分别是各自空间的向量。线性变换可以分解为三个简单的变换:一个坐标系的旋转或反射变换、一个坐标轴的缩放变换、另一个坐标系的旋转或反射变换。这就是奇异值分解的几何解释。

上图来自《统计学习方法》。我们可以很直观地看到奇异值分解的几何意义。

4、奇异值分解的计算

其实奇异值分解的计算过程已经蕴含在奇异值分解基本定理中了,对给定m\times n矩阵A,计算过程如下:

(1)计算A^T A的特征值\lambda_i和对应的特征值向量。

(2)将特征向量单位化,得到单位特征向量v_1,v_2,\dots,v_n构成n阶正交矩阵V

V=[v_1\quad v_2\quad\dots\quad v_n]

(3)计算A的奇异值:

\sigma_i=\sqrt{\lambda_i}

构造m\times n矩阵\Sigma,主对角线元素为奇异值,其余元素为0

(4)对Ar个正奇异值,令:

u_j=\frac{1}{\sigma_j}Av_j,\quad j=1,2,\dots,r

得到:

U_1=[u_1\quad u_2\quad\dots\quad u_r]

A^T零空间的一组标准正交基\{u_{r+1},u_{r+2},\dots,u_m\},令:

U_2=[u_{r+1}\quad u_{r+2}\quad\dots\quad u_m]

则:

U=[U_1\quad U_2]

5、奇异值分解于矩阵近似

这部分内容是我没有接触过的,我以前只知道SVD和PCA类似,都可以做降维(其实PCA是SVD的特殊情形),但并没有从矩阵近似和压缩的角度看待过SVD。这一部分内容证明了一个结论:奇异值分解是在平方损失意义下对矩阵的最优近似。

首先定义矩阵的平方损失函数(也称为弗罗贝尼乌斯范数):

设矩阵A\in R^{m\times n}A=[a_{ij}]_{m\times n},定义矩阵A的平方损失函数为:

||A||_F=(\sum_{i=1}^m\sum_{j=1}^n (a_{ij})^2)^{\frac{1}{2}}

下面证明一个结论:

||A||_F=(\sigma_1^2+\sigma_2^2+\dots+\sigma_n^2)^{\frac{1}{2}}

证明:

一般地,若Qm阶正交矩阵,则:

||QA||_F=||A||_F

这是因为:

\begin{aligned}||QA||_F^2&=||(Qa_1,Qa_2,\dots,Qa_n)||_F^2\\ &=\sum_{i=1}^n||Qa_i||^2=\sum_{i=1}^n||a_i||^2=||A||_F^2 \end{aligned}

同理,若Pn阶正交矩阵,则:

||AP||_F=||A||_F

因此:

||A||_F=||U\Sigma V^T||_F=||\Sigma||_F

即:

||A||_F=(\sigma_1^2+\sigma_2^2+\dots+\sigma_n^2)^{\frac{1}{2}}

有了上述结论,我们接下来证明奇异值分解是在平方损失意义下对矩阵的最优近似。

定理1 设矩阵A\in R^{m\times n}rank(A)=r,设MR^{m\times n}中所有秩不超过k的矩阵集合,0<k<r,则存在一个秩为k的矩阵X\in M,使得:

||A-X||_F=\min_{S\in M}||A-S||_F

称矩阵X为矩阵A在平方误差下的最优近似。

定理2 设矩阵A\in R^{m\times n}rank(A)=r,有奇异值分解A=U\Sigma V^T,并设MR^{m\times n}中所有秩不超过k的矩阵的集合,0<k<r,若秩为k的矩阵X\in M满足:

||A-X||_F=\min_{S\in M}||A-S||_F

则:

||A-X||_F=(\sigma_{k+1}^2+\sigma_{k+2}^2+\dots+\sigma_n^2)^{\frac{1}{2}}

特别地,若A^{'}=U\Sigma^{'}V^T,其中:

\Sigma^{'}=\left\{ \begin{matrix} \sigma_1 & & & & \\ & \sigma_2 & & & \\ & & \dots & & \\ & & & \sigma_k & \\ & & & & 0& \\ & & & & & \dots& \\ & & & & & & 0& \\ \end{matrix} \right\}

则:

||A-A^{'}||_F=(\sigma_{k+1}^2+\sigma_{k+2}^2+\dots+\sigma_n^2)^{\frac{1}{2}}=\min_{S\in M}||A-S||_F

定理2的具体证明过程见《统计学习方法》。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,874评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,102评论 3 391
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,676评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,911评论 1 290
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,937评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,935评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,860评论 3 416
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,660评论 0 271
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,113评论 1 308
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,363评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,506评论 1 346
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,238评论 5 341
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,861评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,486评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,674评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,513评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,426评论 2 352

推荐阅读更多精彩内容