【Pytorch教程】Pytorch tutorials 02-Autograd 中文翻译

Autograd

本篇文章是本人对Pytorch官方教程的原创翻译(原文链接)仅供学习交流使用,转载请注明出处!

autograd是Pytorch搭建神经网络最关键的包。它可以自动计算tensor操作产生的微分,也就是说,autograd是一个define-by-run的框架,可以自动对你的网络进行反向传播。

在声明一个tesnor时,可以指定参数.requires_grad=True开启自动求导,这样Pytorch就会跟踪它的所有操作,在tensor运算完成后,可以调用.backward()方法计算梯度,tesnor的梯度存放在它的.grad属性当中。

.detach()方法可以取消对tensor的梯度追踪,这样Pytorch就会把tensor从追踪记录中移除,不再继续追踪。

为了节约内存、提高效率,可以在代码块前注明with torch.no_grad(),因为有些变量虽然requires_grad=True但其实并不需要计算梯度。

在autograd包中,还有一个非常重要的类就是Function,除了用户基于数据直接创建的Tensor(像a=torch.Tensor([1, 2, 3,])这样),其他的Tensor必然是根据某些Tensor通过运算得到的,Function类就记录了这一运算过程,并存储在.grad_fn属性中。

当需要计算梯度时,首先需要调用y.backward()如果y是一个标量的话,则无需传参,否则,必须传入一个与y规模相同的tensor。

这是因为,在autograd包中,实际计算的是vector-Jacobian积。也就是给定任意的向量v=(v_1 v_2 \cdots v_m)^T ,计算v与Jacobian矩阵 J的积{v^T}·J。如果v恰好是某个标量函数l=g(\overrightarrow{y})的梯度,即:

v=\left( \frac{\partial{l}}{\partial{y_1}} \frac{\partial{l}}{\partial{y_2}} \cdots \frac{\partial{l}}{\partial{y_m}}\right)^T

Jacobian矩阵:

J= \begin{pmatrix} \frac{\partial y_1}{\partial x_1} & \frac{\partial y_1}{\partial x_2} & \cdots & \frac{\partial y_1}{\partial x_n} \\ \frac{\partial y_2}{\partial x_1} & \frac{\partial y_2}{\partial x_2} & \cdots & \frac{\partial y_2}{\partial x_n} \\ \vdots & \vdots & \ddots & \vdots \\ \frac{\partial y_m}{\partial x_1} & \frac{\partial y_m}{\partial x_2} & \cdots & \frac{\partial y_m}{\partial x_n} \\ \end{pmatrix}

其中:{y_i}是关于{x_1,x_2,\cdots,x_n}的多元函数,即:{y_i}={y_i}\left( x_1,x_2,\cdots,x_n \right)

那么根据链式法则,v-J积的结果即是l关于\overrightarrow x的梯度:

{J^T}·v={\begin{pmatrix}\frac{\partial y_1}{\partial x_1} & \frac{\partial y_1}{\partial x_2} & \cdots & \frac{\partial y_1}{\partial x_n} \\ \frac{\partial y_2}{\partial x_1} & \frac{\partial y_2}{\partial x_2} & \cdots & \frac{\partial y_2}{\partial x_n} \\ \vdots & \vdots & \ddots & \vdots \\ \frac{\partial y_m}{\partial x_1} & \frac{\partial y_m}{\partial x_2} & \cdots & \frac{\partial y_m}{\partial x_n} \\ \end{pmatrix}}·{\begin{pmatrix} \frac{\partial{l}}{\partial{y_1}} \\ \frac{\partial{l}}{\partial{y_2}} \\ \vdots \\ \frac{\partial{l}}{\partial{y_m}} \end{pmatrix}} = {\begin{pmatrix} \frac{\partial{l}}{\partial{x_1}} \\ \frac{\partial{l}}{\partial{x_2}} \\ \vdots \\ \frac{\partial{l}}{\partial{x_n}} \end{pmatrix}}

定理:({AB})^T={B^T}{A^T},因此计算{v^T}·J等价于{J^T}·v

vector-Jacobian积的这种特性使得模型非常容易扩展。


接下来看一些例子:

import torch

初始化一个tensor,并将它的requires_grad属性设为True,追踪它的运算。

x = torch.ones(2, 2, requires_grad=True)
print(x)
tensor([[1., 1.],
        [1., 1.]], requires_grad=True)

创建一个tensory = x + 2

y = x + 2
print(y)
tensor([[3., 3.],
        [3., 3.]], grad_fn=<AddBackward0>)

y是由x计算得到的,所以它的.grad_fn不为空

print(y.grad_fn)
<AddBackward0 object at 0x0000028CCEE770C8>

做一些其他运算:

z = y * y * 3
out = z.mean()

print(z, out)
tensor([[27., 27.],
        [27., 27.]], grad_fn=<MulBackward0>) tensor(27., grad_fn=<MeanBackward0>)

.requires_grad_(...)方法可以改变tensor的requires_grad属性。默认情况下,requires_grad = False

a = torch.randn(2, 2)
a = ((a * 3) / (a - 1))

print(a.requires_grad)

a.requires_grad_(True)
print(a.requires_grad)

b = (a * a).sum()
print(b.grad_fn)
False
True
<SumBackward0 object at 0x0000028CCEE83CC8>

接下来尝试使用自动求导机制,上文中使用到的out是一个标量,那么对out反向传播则可以直接调用out.backward(),等价于out.backward(torch.tensor(1))

out.backward()
print(x.grad)
tensor([[4.5000, 4.5000],
        [4.5000, 4.5000]])

检验:

\begin{equation}\begin{split} out&=\frac{1}{4}\sum_i{z_i}\\ z_i&=3({x_i}+2)^2\\ {z_i}\big|_{{x_i}=1}&=27\\ \frac{\partial out}{\partial x_i}&=\frac{3}{2}({x_i}+2)=4.5\\ \end{split}\end{equation}

x = torch.rand(3, requires_grad=True)

y = x * 2
while y.data.norm() < 1000:  #norm是L-p范数,默认求2范数
    y = y * 2
    
print(y)
tensor([939.6540, 998.4269,   6.6829], grad_fn=<MulBackward0>)

L-P范数 L_p=\left\|x\right\|_p=\sqrt[p]{\sum_{i=1}^n{x_{i}^{p}}}

此时y不再是标量,自动求导机制不能直接计算Jacobian行列式,反向传播得到的.grad是vector-Jacobian积。

v = torch.tensor([0.1, 1.0, 0.0001], dtype=torch.float)
y.backward(v)

print(x.grad)
tensor([1.0240e+02, 1.0240e+03, 1.0240e-01])

with torch.no_grad():可以临时取消对代码块内的tensor的追踪。

print(x.requires_grad)
print((x ** 2).requires_grad)

with torch.no_grad():
    print((x ** 2).requires_grad)
    
print((x ** 2).requires_grad)
True
True
False
True

.detach()方法可以将tensor从自动求导机制中隔离出来,得到的新tensor将不再需要求导。

print(x.requires_grad)
# y和x数据相同,不需要求导
# y不是x的拷贝,对y的修改也会影响x
# 如果直接令y = x,那么是不会取消追踪的
y = x.detach() 
print(y.requires_grad)
print(x.eq(y).all())  # 对比全部数据
True
False
tensor(True)
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 222,104评论 6 515
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 94,816评论 3 399
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 168,697评论 0 360
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,836评论 1 298
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,851评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 52,441评论 1 310
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,992评论 3 421
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,899评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,457评论 1 318
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,529评论 3 341
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,664评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 36,346评论 5 350
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 42,025评论 3 334
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,511评论 0 24
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,611评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 49,081评论 3 377
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,675评论 2 359