线性代数学习总结-正交

概念

如果两个向量的点积等于0,那么则说这两个向量是正交的。(其实也就是垂直啦)

v\cdot w=0\quad 或者\quad v^{T}w=0

正交矩阵的性质有着很多实际的应用。首先从4个子空间之间的正交性开始吧。

子空间正交性

这里是接着子空间更进一步引述出的结论。

  • 行空间垂直与零空间垂直

很明显,对于Ax=0的情况下,矩阵A的每一行都与x垂直

  • 列空间垂直与Left Null SpaceN(A^{T})垂直

与上面一致,对于A^{T}y=0的情况下,矩阵A的每一列都与y垂直

Orthogonal Complements

对于一个子空间V而言,它的正交补码包含每个与子空间V垂直的向量,记作V^{\perp}

投影

这里投影就是指一个向量在另一个向量、平面或其他什么东西上的映射,跟字面意思一样。
首先考虑最简单的情况,投影到一条直线跟投影到一个平面上,为了节约纸张,我画在一幅图里了


projection on line/plane

如图,向量b在向量a或者平面a上的投影为P,如何求出P呢?

假设P = x'a\quad与P垂直的向量为e
e = b - P=b - x'a
因为ea垂直,有a\cdot e=a\cdot (b-x'a)=0
可以得到x'=\frac{a^{T}b}{a^{T}a}\qquad P=x'a=\frac{a^{T}b}{a^{T}a}a
对于平面而言,求解方法一致,得到x'=\frac{A^{T}b}{A^{T}A}\qquad P=Ax'=A(A^{T}A)^{-1}A^{T}b
得解

注意不要随便乱消元哈,这不是自然数。

接着我们考虑一种更复杂的情况,映射到子空间。
假设给出nR^{m}空间内的线性无关的向量组a_1, a_2,...a_n,找出组合p=x'_1a_1+x'_2a_2+...x'_na_n,使得它与向量b的差值最小。
所谓差值最小,其实就是求b先这个子空间的投影了。那么我们只需要找出投影矩阵就可以了

对于p=x'_1a_1+x'_2a_2+...x'_na_n而言,因为b的差值与a_i是垂直的,有
a_i^{T}(b-Ax')=0\quad即\quad\begin{bmatrix}a_1^{T}\\a_2^{T}\\...\\a_n^{T}\end{bmatrix}\begin{bmatrix}b-Ax'\\b-Ax'\\...\\b-Ax'\end{bmatrix} = 0
得到A^{T}(b-Ax')=0 \quad \rightarrow \quad A^{T}Ax'=A^{T}b
p=Ax'=A(A^{T}A)^{-1}A^{T}b\quad 因此,投影矩阵为\quad P=A(A^{T}A)^{-1}A^{T}

线性拟合

接下来的内容比较偏应用一点。对于方程Ax=b无解是一种比较常见的情况,例如出现线性依赖等情况。在这种情况下,我们需要求出一个最优解,该怎么做呢?
所谓的最优解,就是该解与b的差值的平方最小
是的,求投影就行了。如果差值的平方为0的话,则b就等于Ax
如下图

Fitting a straight line

对于Ax=b\quad 可以表达为\quad C+D_{ti}=b_i\quad即\quad A=\begin{bmatrix}1&t_1\\1&t_2\\...&...\\1&t_n\end{bmatrix}\begin{bmatrix}C\\D\end{bmatrix}=b
我们需要求出C和D,根据公式A^{T}Ax'=A^{T}b,有A^{T}A=\begin{bmatrix}1&1&...&1\\t_1&t_2&...&t_m\end{bmatrix}\begin{bmatrix}1&t_1\\1&t_2\\...&...\\1&t_m\end{bmatrix}=\begin{bmatrix}m&\sum_{}t_i\\\sum_{}t_i&\sum_{}t_i^{2}\end{bmatrix}
A^{T}b=\begin{bmatrix}1&1&...&1\\t_1&t_2&...&t_m\end{bmatrix}\begin{bmatrix}b_1\\b_2\\...\\b_m\end{bmatrix}=\begin{bmatrix}\sum_{}b_i\\\sum_{}t_ib_i\end{bmatrix}
那么当A^{T}Ax'=A^{T}b的时候,\left||Ax-b\right||^2=e_1^2+e_2^2+...+e_m^2最小\begin{bmatrix}m&\sum_{}t_i\\\sum_{}t_i&\sum_{}t_i^{2}\end{bmatrix}\begin{bmatrix}C\\D\end{bmatrix}=\begin{bmatrix}\sum_{}b_i\\\sum_{}t_ib_i\end{bmatrix}求出C、D,回代入公式,得解。

线性拟合在应用中有较多的使用。不过容易出现的问题就是干扰点,这些点离中心数据太远,极大的影响了结果。通常在应用中会选择剔除这些点。

正交基和Gram-Schmidt

上面的过程可以看到,在求解的时候是非常麻烦的,计算量很大。那么这里我们主要通过构造正交矩阵来减少运算量。
对于向量v_1,v_2,...v_n而言,如果他们的点积d_i\cdot d_j=0(i\neq j),我们则说他们是正交的。如果向量的长度为1,那么我们则称之为正交单位向量,也叫标准正交。

q_i^Tq_j=\begin{Bmatrix}0\quad when\quad i\neq j\quad (orthogonal\quad vectors)\\1\quad when\quad i= j\quad (unit\quad vectors:\left||q_i\right||=1)\end{Bmatrix}

这样我们可以很轻松的求解,因为Q^{T}Q=I,那么对于原来的公式A(A^{T}A)^{-1}A^{T}而言,可以化简为AA^{T},极大的方便了运算。

那么如何将原来的矩阵A变成正交单位矩阵Q呢?
如图

transform

简单起见,从低维开始考虑,假设三维空间中,我们有向量组成的矩阵,如图所示,要将它变为正交矩阵其实就很简单了。

  • 首先我们求出e,用B表示为B=b-\frac{A^{T}b}{A^{T}A}A
  • 其次,我们用c减去其投影在B,a上的分量,既得到垂直于B,a平面的量了,如下图
    c
  • 得到C=c-\frac{A^{T}c}{A^{T}A}A-\frac{B^{T}c}{B^{T}B}B

a,B,C组成正交单位矩阵。

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容