今天粗略看了一遍SVD:https://zhuanlan.zhihu.com/p/37038542,既然看了就总结一下
1.用处:降维、压缩空间
2.解释:什么是奇异值分解
2.1 从特征值分解说起
特征值分解得到特征向量矩阵和特征值矩阵,原矩阵对每个特征向量的作用,相当于对应的特征值*特征向量这样一个水平方向的变化
矩阵对其他向量的作用即特征向量矩阵、特征值矩阵的共同作用,只保留主要几项可以近似替代
优缺点:优点是可以通过保留主要特征值和对应的特征向量来对矩阵降维,缺点是要求必须是方阵
2.2 奇异值分解
矩阵如果不是方阵,就用ATA这个方阵做特征值分解,然后把特征值开根号得到奇异值
