深度学习从入门到不想放弃-2

 昨天和同事开玩笑说,我又想到几个好玩又实用的topic,准备写下来;其实今天本来想蹭个热点写点别的,但是突然出了这么几个新闻,考虑再三,我还是写点技术文章吧!

继续讲基础,今天的主题是讲一下Tensor

    什么是Tensor? 不管做不做深度学习的各位,可能都听过Tensorflow,这是两个词的整合新词,前面的Tensor是核心,Tensor 直译就是张量,那么什么是张量?

     张量是一个统称,细分下来有很多分支,举几个例子:

     0阶张量:标量,就是我们日常所经常用到的常量,常数 ,一般记为0-D Tensor

1阶张量:向量, venctor, 1-D Tensor

     2阶张量:矩阵, martix, 2-D Tensor

     3阶以后一般也就不会特意给起个名字了

 阶/维度/dimension,可以近似认为是高维数组里的shape的个数

     看一个例子:

     我们先设定有一个Tensor为a


打印一下Tensor a 的形状


      可以看出Tensor a 是一个 2行3列的矩阵,通过a.shape可以打印出a 的在每一个维度上的元素个数,而shape的个数就是Tensor的维度


       这里介绍几种使用torch来创造Tensor的方法

1- 空Tensor(未初始化的Tensor)


当使用torch.empty来创建空Tensor的时候,torch会自动无意义的随机值来填充Tensor

2- 全1Tensor


这个没什么可解释的       

3- 全0Tensor


同上

4-随机值Tensor


Tensor取值范围默认是0-1区间的数字

5- Randint整数Tensor


顾名思义,特点是可以设置整数区间

6- 高斯分布Tensor


就是个标准的正态分布,均值0,方差为1,尽可能模拟真实世界的随机data分配原则

      以上这些Tensor的生成方法可以在做训练或者推理测试的时候用,作用是可以造临时测试数据,来验证训练或者推理的代码是否work

    Tensor的属性

    怎么一眼就知道操作的Tensor是几阶Tensor?

    看中括号数量!

    举个例子:


这就是个3阶Tensor


这就是2阶Tensor,矩阵

那么如果就给一个元素的多个中括号可以吗?


答案是可以的,如上图所示,4阶Tensor,在每个维度上就有一个元素


彩蛋:

写到这里,可能细心的读者已经发现了,在torch的api里,我怎么一会用tensor,一会用Tensor,那么这两个方法有什么区别呢?

大致有如下几个区别:

Tensor相当于torch.empty 和torch.tensor的混合模式,而且它是有一个全局默认的数据类型的,FloatTensor就是浮点数,可以参考上图,在打印torch.Tensor创建的张量的时候,元素后面都会有一个".", 这个"."就是浮点数的意思, 而使用torch.tensor创建的张量,是可以通过dtype来指定元素的数据类型,同时它也会自动根据输入的元素来匹配数据类型

Tensor如果直接输入整数,默认是把这个数字当成元素个数来看(第一条我已经讲了,Tensor默认是有数据类型的,所以输入整数它不会认为是整形,而是当成元素的个数),而tensor则是当成具体元素的值(判断为整形)

最后一点也是本质区别,torch.Tensor 其实是个类,它有自己的构造函数,而torch.tensor本身是一个函数,本体是

torch.tensor(data, dtype=None, device=None, requires_grad=False)

写在最后,“情欲生于夏,因果了于秋", 今天确实不知道怎么形容,就先写这么多吧!

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容