矩阵分解

转载自视觉SLAM中的数学

矩阵就是一个给定的线性变换,特征向量描述了这个线性变换的主要方向,特征值描述了特征向量的长度在该线性变换下缩放的比例。

为什么要进行矩阵分解

  1. 矩阵分解可以减少存储空间,减少问题处理的计算量,从而高效地解决目标问题。
  2. 矩阵分解可以提高算法的数值稳定性。

矩阵与矩阵分解的几何意义

在矩阵分解中,我们常常期望将矩阵分解为正交矩阵、对角矩阵及上/下三角矩阵的乘积。

以三维矩阵为例,一个普通矩阵的几何意义是对坐标进行某种线性变换,而正交矩阵的几何意义是坐标的旋转,对角矩阵的几何意义是坐标的缩放,三角矩阵的几何意义是对坐标的切边。

因此,对矩阵分解的几何意义就是将这种变换分解为缩放、切边和旋转的过程。

常用的矩阵分解

LU三角分解
LDLT分解
LLT分解
QR分解
SVD分解
特征值分解
(坑待填。。。)

参考资料

【1】视觉SLAM中的数学
【2】 机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用
【3】正定矩阵的Cholesky分解

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。