Pytorch 中的 Tensor , Variable & Parameter

一、 Tensor & Variable & Parameter

1. Tensor

  pytorch中的Tensor类似于numpy中的array,之所以“另起炉灶”,是因为tensor能够更方便地在GPU上进行运算。pytorch为tensor设计了许多方便的操作,同时tensor也可以轻松地和numpy数组进行相互转换。

1)像使用numpy的arrray一样,使用pytorch的tensor
import torch
# numpy array -> tensor
pt_tensor1 = torch.Tensor(numpy_array)
pt_tensor2 = torch.from_numpy(numpy_array)
# tensor -> numpy_array
my_array = pt_tensor1.numpy() # 如果是放在gpu上,要先.cpu()一下
2)访问Tensor的一些属性
# my_tensor是一个3x4的tensor
# 访问维度
my_tensor.dim()          # 2
# 访问大小
my_tensor.size()        # (3,4)
my_tensor.shape
# 访问元素个数
my_tensor.numel()
# 访问元素数据类型
my_tensor.type()
# 访问tensor内的某个元素或某些元素
my_tensor[0, 0]         # 第0个元素,等价于my_tensor[0][0]
my_tensor[1:3, 0:2]    # 第2~3行、1~2列的元素,等价于my_tensor[1:3][0:2]

~~疑问:tensor和Variable的.data操作有何作用,和item()有何区别
# item是从0维tensor中拿出具体数值(int,float等)
# .data取出的仍然是tensor
3) 常用的tensor操作
# 用到再往这里面加


# 矩阵乘法
torch.matmul(x, y)

2. Variable

  Variable是对Tensor的封装,操作与tensor基本一致,不同的是,每一个Variable被构建的时候,都包含三个属性:

  • Variable中所包含的tensor
  • tensor的梯度 .grad
  • 以何种方式得到这种梯度 .grad_fn
    之所以有Variable这个数据结构,是为了引入计算图(自动求导),方便构建神经网络。下面用例子说明:
# 1. 对标量自动求导
from torch.autograd import Variable
a = torch.randn(10, 5)
b = torch.randn(10, 5)
x = Variable(a, requires_grad=True)
y = Variable(b, requires_grad=True)
z = x + y
z.backward()
x.grad            # x的梯度 10x1 的全1tensor
z.grad_fn         # <SumBackward0 object at 0x7f809e33fcf8> 
# 2. 对向量、矩阵进行求导
n = Variable(torch.zeros(1, 2), requires_grad=True)
m = Variable(torch.FloatTensor([2, 3]), requires_grad=True)
n[0, 0] = m[0, 0] ** 2
n[0, 1] = m[0, 1] ** 3
n.backward(torch.ones_like(n))
m.grad
# [4., 27.]

  通过调用backward(),我们可以对某个Variable(譬如说y)进行一次自动求导,但如果我们再对这个Variable进行一次backward()操作,会发现程序报错。这是因为PyTorch默认做完一次自动求导后,就把计算图丢弃了。我们可以通过设置retain_graph来实现多次求导。

# 多次自动求导
x = Variable(torch.Tensor([2]), requires_grad=True)
y =  x * 2 + x ** 2 + 3
y.backward()
x.grad                           # 6
y.backward()      
# 报错-->RuntimeError: Trying to backward through the graph a second time, but the buffers have already been freed. Specify retain_graph=True when calling backward the first time.
z = x * 2 + x ** 2 + 3
z.backward(retain_graph=True)         #参数设定,保留计算图
x.grad                                   # 第一次求导的梯度
x.grad.data.zero_()      # 梯度归0,否则梯度会叠加(求和)
z.backward()                    # 第二次求导
x.grad                                   # 第二次求导的梯度
# 注意retain_graph参数的效用只有一次,也就是说在这块代码里,我如果想对z进行第三次求导,同样会报错,因为第二次求导的时候没有声明retain_graph=True

Parameter

  我们知道网络中存在很多参数,这些参数需要在网络训练的过程中实时更新(一个batch更新一次),完成“学习”的过程,譬如最直观的梯度下降法更新参数w

w.data = w.data - lr * w.grad.data  # lr 是学习率

  那么这里就遇到一个很直观的问题:麻烦啊

  • 网络中若是有100个参数,都要手写更新代码吗?1000个呢?10000个呢......
  • Variable默认是不需要求梯度的,那我还需要手动设置参数 requires_grad=True
  • Variable因为要多次反向传播,那么在bcakward的时候还要手动注明参数w.backward(retain_graph=True)

  Pytorch主要通过引入nn.Parameter类型的变量和optimizer机制来解决了这个问题。Parameter是Variable的子类,本质上和后者一样,只不过parameter默认是求梯度的,同时一个网络net中的parameter变量是可以通过 net.parameters() 来很方便地访问到的,只需将网络中所有需要训练更新的参数定义为Parameter类型,再佐以optimizer,就能够完成所有参数的更新了,具体如下:

class Net(Module):
        def __init__(self, a, b, ...):
                super(net, self).__init__()
                self...   #  parameters
                self...    # layers
        def forward(self):
                x = ...
                x = ...    # 数据流
                return x
net = Net(a, b, ...)
net.train()
...
optimizer = torch.optim.SGD(net.parameters(), lr=1e-1)
# 然后在每一个batch中,调用optimizer.step()即可完成参数更新了(loss.backward()之后)
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,033评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,725评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,473评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,846评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,848评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,691评论 1 282
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,053评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,700评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,856评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,676评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,787评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,430评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,034评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,990评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,218评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,174评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,526评论 2 343

推荐阅读更多精彩内容

  • 原版英文链接:Edward Z. Yang's PyTorch internals : Inside 245-5D...
    _soaroc_阅读 891评论 0 0
  • Tensors #Tensors#Tensors和numpy中的ndarrays较为相似,因此Tensor也能够使...
    MiracleJQ阅读 1,623评论 0 1
  • 作者:Soumith Chintala 官方60分钟快速入门翻译 Github 地址简书地址CSDN地址 本教程的...
    MaosongRan阅读 25,716评论 0 35
  • 天气很热 气温很高 有点头晕 我怀疑 自己是不是中暑了 因为空调 夏天不大容易中暑 然而因为空调 互冷互热 也使人...
    三三不惑阅读 465评论 4 8
  • 我有好多好多情话 无处诉说 存在情话篓子里 等风 也等你 欢迎关注新建专题《情话篓子》 欢迎投稿,无需审核。
    祥云如梦阅读 103评论 0 1