深度学习之线性代数

标量、向量、矩阵和张量

转置(transpose)是矩阵的重要操作之一。

向量可以看做只有一列的矩阵。向量的转置可以看做只有一行的矩阵。

矩阵形状相同的情况下,两个矩阵相加是指对应位置的元素相加。

标量和矩阵做加法或是乘法,等于矩阵的每个元素与标量进行加法或乘法运算。

矩阵和向量相加?

矩阵和向量相乘

matrix product

element-wise producrt:两个矩阵对应位置的元素成绩

dot product:两个向量的点积等价于向量a的转置乘以向量b

单位矩阵和逆矩阵

matrix inversion:逆矩阵×矩阵=单位矩阵。逆矩阵不一定存在。

identity matrix:主对角线元素为1,其他位置所有元素都是0。任意向量与单位矩阵相乘,都不会改变。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容