特征向量和特征值,上大学时学过,考研时复习过,懂得计算求值,但是没有真正理解其背后的含义。今天及以后概括梳理下其意义,并做下记录,以便复习使用。
定义: 设A是n阶矩阵,如果数λ和n维非零向量x使关系 成立,那么,这样的数λ称为矩阵A的特征值,非零向量x称为A的对应于特征值λ的特征向量。
一个变换可由一个矩阵乘法表示,那么一个空间坐标也可视作一个矩阵,而这个坐标系就可由这个矩阵的所有特征向量表示,用图来表示的话,可以想象就是一个空间张开的各个坐标角度,这一组向量可以完全表示一个矩阵表示的空间“特征”,而他们的特征值就表示各个角度上能量(可以想象成各个角度伸出的长短,越长的轴就越可以代表这个空间,它的“特征”就越强,或者说显性,而短轴自然就成了隐性特征),因此,通过特征值,特征向量完全描述某一空间这一特性,使得特征向量与特征值在几何及其应用中得以发挥。
求特征向量,就是把矩阵A所代表的空间进行正交分解,使得A的向量集合可以表示为每个向量a在各个特征向量上的投影长度。通常求特征值和特征向量即为求出这个矩阵能使那些向量只发生拉伸,而方向不发生变化,观察其拉伸的程度。这样做的意义在于,看清楚一个矩阵在那些方面能产生最大的分散度,减少重叠,意味着更多的信息被保留下来。