Torch requires_grad / backward / is_leaf 的一些坑

本教程解决以下问题:

求一个变量(如loss值)关于某个变量的梯度值是,即便变量的requires_grad属性设置成True,该变量的grad还是等于None。

介绍

如果你也跟我一样是在学习对抗样本,那肯定离不开要对loss函数关于输入样本求梯度值,进而构造对抗样本。但是我一开始并不知道如何求loss函数关于输入的梯度值,也不知道如何获取这个梯度值。即便我在网上找到了源代码,也很难理解。而这篇文章就记录了我的学习过程以及理解。

求对抗样本

下面是我整合网上的代码自己写的一份关于FSGM的代码。你会发现获取Loss函数关于输入的梯度的关键是这句:

input_for_gradient = Variable(input, requires_grad=True)

其中requires_grad=True属性设置成True后,使得我们在调用backward后,input_for_gradient 变量的梯度值能够被保存下来。因此,实际上,一般情况下只要把这个属性设置成True,我们就可以正常求关于某一个变量的梯度值了。

class FGSM:
    def __init__(self, model, criterion, epsilon, device):
        self.model = model
        self.criterion = criterion
        self.epsilon = epsilon
        self.device = device
        assert isinstance(model, torch.nn.Module), "Input parameter model is not nn.Module. Check the model"
        assert isinstance(criterion, torch.nn.Module), "Input parameter criterion is no Loss. Check the criterion"
        assert (0 <= epsilon <= 1), "episilon must be 0 <= epsilon <= 1"
        self.model.eval()


    def __call__(self, input, labels):
        # For calculating gradient
        input_for_gradient = Variable(input, requires_grad=True).to(self.device)
        out = self.model(input_for_gradient)
        loss = self.criterion(out, Variable(labels))

        # Calculate gradient
        loss.backward()

        # Calculate sign of gradient
        signs = torch.sign(input_for_gradient.grad.data)

        # Add
        input_for_gradient.data = input_for_gradient.data + (self.epsilon * signs)

        return input_for_gradient, signs

问题

上面说的情况都很理想,一旦你手动实践后,就很容易碰到各种各样的bug,比如下面这个bug困惑了我一下下午:

xx = Variable(torch.Tensor([1,2,3]), requires_grad=True)
# xx = torch.Tensor([1,2,3])
# xx.requires_grad = True
xx = xx.to(DEVICE)

yy = xx ** 2
zz = yy.mean()
# # zz.backward(xx, retain_graph=True)
zz.backward()

print(xx.grad)
print(xx.is_leaf)
print(xx.requires_grad)


None
False
True

xx 是一个Variable(后面会再来讨论这个),该变量的requires_grad属性设置成True,然后把这个变量移入CUDA中,再做几个简单的算术操作后,调用zz.backward()来计算梯度值。但是,从结果上看,xx的grad竟然为None!!!而且竟然不是叶子节点!!!

解决方法

先直接上代码:

# xx = Variable(torch.Tensor([1,2,3]), requires_grad=True)
xx = torch.Tensor([1,2,3])
xx = xx.to(DEVICE)
xx.requires_grad = True

yy = xx ** 2
zz = yy.mean()
# # zz.backward(xx, retain_graph=True)
zz.backward()

print(xx.grad)
print(xx.is_leaf)
print(xx.requires_grad)

tensor([0.6667, 1.3333, 2.0000], device='cuda:7')
True
True

也就是说,放弃用Variable,用Tensor就行,且,注意了(敲黑板),先将变量传入CUDA,再将变量的requires_grad属性设置成True!!!

你要是先设置requires_grad属性,再传入CUDA,那么这个变量的requires_grad属性设变成False了。如下面所示:


image.png

总结

看一下Variable和Tensor有什么区别。先看一下官网对Variable和Tensor的定义。

Variable

image.png

(图片截自2020/1/6)
!!!我kao,Variable已经被弃用了!!!不过虽然已经被弃用了,但是Variabel(tensor), Variable(tensor, requires_grad)还是可以正常调用,只不过这个函数不返回Variable对象,而是返回一个Tensor对象。。。。。。

那么Variable返回的对象跟Tensor一模一样罗?那为毛这个会报错:


image.png

先将变量传入CUDA,在修改requires_grad属性就报错???

但我直接用Tensor是可以这么操作的:


image.png

所以,我觉得这两个东西还是不完全一样的!!!

Tensor

image.png

emmmm看一下几个关键的属性

image.png

也就是说grad这个值默认是None,但调用backward的时候这个变量可能会被填充。

image.png

这里他说,一个张量需要计算梯度的事实并不意味着会填充grad属性。。。。。看下一个

image.png

哦,这个意思是说,只有是叶子张量,在调用backward时,这个张量的grad属性才会被填充。。。。。

然后,我通过检查张量的is_leaf属性,最后我才发现了这个问题的问题所在。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,012评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,628评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,653评论 0 350
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,485评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,574评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,590评论 1 293
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,596评论 3 414
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,340评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,794评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,102评论 2 330
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,276评论 1 344
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,940评论 5 339
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,583评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,201评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,441评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,173评论 2 366
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,136评论 2 352

推荐阅读更多精彩内容