学习_矩阵对角化和SVD

1.矩阵对角化
矩阵对角化和SVD可以达到特征值分解的目的,特征值分解是将矩阵分解为特征向量和特征值相乘的形式。
对角化如下,对角化对矩阵的要求较高,需要B为对称、正定矩阵


P矩阵要求单位正交,即

对角化可以达到将矩阵分解的目的,A对角线上的值为B矩阵对应的特征值,P可以理解为对应的特征矩阵,推导如下:

λ按照大小顺序进行排列,一般前几个比较大的λ就能很好的逼近B的真实数值,因此达到矩阵分解的目的,矩阵B原始大小为nxn,如上分解之后,最小可以压缩到只保留第一项,其中u1位列向量,因此大小变为n+1。

特征值和特征向量的作用效果,A可以看做是在u_i的反向上延展λ_i 倍。

2.SVD(奇异值分解)

SVD是对角化的扩展。一般矩阵A,大小为mxn,不满足上述的对角化分解的要求,需要做个中间的转换,来满足那两个要求:正定、对称,如下


因此可以对进行对角化,有之前的对角化过程可以得出


一个结论,有矩阵B(mxn)和矩阵C(nxm),则BC和CB两个矩阵的大小不同,但是他们的特征值不为零的个数是一样的,在花书中用矩阵的迹来证明该结论。根据此结论,上述对A矩阵的分解,D1和D2中对角上的不为零的特征值的个数是一样的。可得到如下推导得出A的对角分解,特征值λ即为D1或者D2中对角线元素开根号。

SVD可以应用在图像压缩,一张大小为mxn的图像,根据上述对A的分解结果,只取第一个λ的部分,则被压缩后的存储大小为m+n+1。当取前k个λ时,存储大小为k*(m+n+1),相对于原图的误差为

还可以用在减小矩阵的计算复杂度

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容