神经网络的“齿轮”:张量运算

张量运算(tensor operation)

逐元素运算

relu 运算和加法都是逐元素(element-wise)的运算,即该运算独立地应用于张量中的每个元素。

广播

两个形状不同的张量相加,则较小的张量会被广播,以匹配较大的张量形状。包含以下两步:
1、像较小的张量添加轴(叫作广播轴),使其 ndim 与较大的张量相同;
2、将较小的张量沿新轴重复,使其形状与较大的张量相同。

张量点积

张量积(tensor product)又叫张量运算。在 Nump、Keras、Theano、TensorFlow中,都是用 * 实现逐元素乘积。TensorFlow 中的点积使用了不同的语法,但在 Numpy、Keras 中,使用 dot 运算符来实现点积。(就是矩阵乘积运算)

张量变形

1、改变张量的行和列,得到想要的形状;
2、矩阵转置。

深度学习的几何解释

可将神经网络解释为高维空间中复杂的集合变换。深度学习就像解开两张揉成一团不同的纸。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容