如果一个n×n维矩阵的n个特征向量均是线性无关的,则这个矩阵能够被对角化(或叫相似对角化)「从而能做特征值分解,这两个是等价的」
而能够被对角化的矩阵,才能做特征值分解。
所以,并不是所有方阵都能特征值分解,而是必须有n个线性无关的特征向量。
幸运的是,大部分维度为n的方阵都有n个线性无关的特征向量,这又分几种情况:
如果有n个不同的特征值,那自然n个特征向量是线性无关的
如果有相同的特征值,重复的个数叫代数重数,这时分以下两种:
A、重复的特征值对应的线性无关的特征向量数(几何重数)和代数重数一致,那就也有n个线性无关的特征向量
B、如果不一致,那就没有,就不能进行特征值分解了
注意,这里约束是A有n个线性无关的特征向量,而不是A的列向量线性无关,也就是说和A是否满秩无关
也就是说,我最好只对对称阵进行特征值分解,因为对称阵一定能这么做
对称矩阵性质:特征向量是正交向量,也就是特征基为正交基,而且特征值为正
当矩阵为实对称阵时,总有n个线性无关的特征向量,而且两两正交,也就是说特征向量矩阵S为正交阵,一般写作Q
向量在正交矩阵的变换前后,点积不变,而长度也不变,所以正交矩阵可以视为旋转矩阵