pytorch基础学习(四) 数据处理(一)

本篇主要介绍pytorch中tensor的attributes,操作注意事项,tensor的基本操作如:查看tensor的shape,rank和元素个数;改变tensor的shape甚至rank.

1. tensor的attributes

tensor有以下几个常用的attributes,首先看一段代码:

import torch
t = torch.Tensor()
print(type(t))  # <class 'torch.Tensor'>
print(t.dtype)  # torch.float32
print(t.device)  # cpu
print(t.layout)  # torch.strided

其输出为:

output:
<class 'torch.Tensor'>
torch.float32
cpu
torch.strided

对于这个输出的解释如下:

  • pytorch中tensor的数据类型为<class 'torch.Tensor'>
  • t.dtype表示tensor中元素的数据类型. 由上一节我们知道,使用torch.Tensor()构造的tensor是浮点型的,因此输出为torch.float32
  • t.device表示tensor所在的设备(CPU或GPU),默认是CPU,如何将一个tensor写在GPU上,下文会提到.
  • t.layout表示tensor在内存中的储存方式,有torch.stried和torch.sparse_coo两种,默认为torch.stried,这是一种紧凑的存储方式,使用t.stried()会返回一个list,表示每一维度从一个元素转到下一个元素所需要的内存.

2. tensor操作的注意事项

  1. 在旧版本的pytorch中,两个tensor进行运算,必须是相同的类型,但是在新版的pytorch中已经可以运算,类如:
t1 = torch.tensor([1, 2, 3])
t2 = torch.tensor([1., 2., 3.])
print(t1.dtype)
print(t2.dtype)
t = t1 + t2
print(t)  
output:
torch.int64
torch.float32
tensor([2., 4., 6.])

可以看到int64类型的tensor和float32类型的tensor进行了运算,输出的类型是float32类型的tensor,这在旧版中,就会报错error: t1, t2 must be the same dtype.

  1. 无论新旧版本的pytorch,两个tensor进行运算,必须在相同的设备上,类如:
t1 = torch.tensor([1, 2, 3])
t2 = t1.cuda()
print(t1.device)   
print(t2.device)
t = t1 + t2 
output:
cpu
cuda:0
RuntimeError: expected device cpu but got device cuda:0

这样是会报错的.
同时我们也可以看到,通过t1.cuda(),新生成的tensor的设备就从CPU变成了0号GPU.

3. tensor的基本操作

1. 查看tensor的shape,rank和元素个数

t = torch.tensor([
    [1, 1, 1, 1],
    [2, 2, 2, 2],
    [3, 3, 3, 3]
], dtype=torch.float32)
print(t.shape)
print('rank of tensor: %d' % len(t.shape))
print('number of elements: %d' % torch.tensor(t.shape).prod())
print('number of elements: %d' % t.numel())
output:
torch.Size([3, 4])
rank of tensor: 2
number of elements: 12
number of elements: 12

最后两行,都可以得到tensor的元素个数.

2.改变tensor的shape甚至rank

  1. reshape,用法如下 :
t = torch.tensor([
    [1, 1, 1, 1],
    [2, 2, 2, 2],
    [3, 3, 3, 3]
], dtype=torch.float32)
print(t.reshape(1, 12))
print(t.reshape(2, 2, 3))
print(t.reshape(2, -1))
output:
tensor([[1., 1., 1., 1., 2., 2., 2., 2., 3., 3., 3., 3.]])
tensor([[[1., 1., 1.],
         [1., 2., 2.]],

        [[2., 2., 3.],
         [3., 3., 3.]]])
tensor([[1., 1., 1., 1., 2., 2.],
        [2., 2., 3., 3., 3., 3.]])

reshape的参数就是需要改变的shape,需要注意的是,reshape前后一定要保持元素数是一样的,否则会报错.
可能读者会注意到,最后一个reshape的参数是(2, -1),-1也可以作为reshape的参数,意思就是这个 axis的长度由其它axis的长度等于决定. 在这个例子中,t一种由12个元素,第一个aixs的长度是2. 因此第二个aixs的长度就是6,最终的shape就是(2, 6).
由-1的作用我们可以看出,-1只能有一个,否则会因出现歧义而报错,如t.reshape(2, -1, -1),这就不行,后面两个axes的长度可以是(1,6), (6,1), (2,3), (3,2),机器无法决定.

  1. squeeze与unsqueeze
    这两个操作在网络搭建中经常使用
    squeeze: 移除所有长度是1的axes
    unsqueeze(dim): 在特定的维度增加一个长度为1的轴,因此tensor的rank会增加1
    ,还是上面的tensor,我们举2个栗子吧:
print(t.reshape(2, 1, 6).squeeze().shape)
output:
torch.Size([2, 6])

可以看到,reshape可以将t的shape变为(2,1,6),经过squeeze的操作,第二个axes的长度为1被删去,因此经过squeeze的shape就变为(2,6).
再看看unsqueeze:

print(t.reshape(2, 1, 6).squeeze().unsqueeze(dim=1).shape)
output:
torch.Size([2, 1, 6])

由上面可以知道,经过t.reshape(2, 1, 6).squeeze(),shape此时为(2,6),后面由进行了unsqueeze(dim=1)操作,在第2维(第1维是dim=0)增加一个长度为1的轴,从而shape就变成了(2, 1, 6),这在网络输入图像时候非常有用,batch为1时候,只需要在每个样本的最前面使用unsqueeze增加一个轴就可以啦!

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,001评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,210评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,874评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,001评论 1 291
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,022评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,005评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,929评论 3 416
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,742评论 0 271
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,193评论 1 309
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,427评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,583评论 1 346
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,305评论 5 342
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,911评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,564评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,731评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,581评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,478评论 2 352