pytorch 中的一些小问题

pytorch张量的保存和恢复

tensor本身就是对象 如果想要保存和恢复对应的对象 使用 torch.save 和 torch.load即可
就像picke的load 和dump一样

t2 = torch.randn([1024, 1024])
torch.save(t2, "t1.pth")

t2l = torch.load(t2, "t1.pth")

当然save和load 还涉及到具体的设备 比如在GPU上的变量被保存时应该怎么恢复到CPU上 存在这个问题
这需要使用torch.load 中的 map_location 参数
具体看这里 torch.load 的设备映射参数

pytorch中的nn.Module 和nn.Sequencal 扮演了什么角色

模型本质上是一堆的tensor组成的计算图。 nn.Module其实就是一个外壳 在文档中被称之为
Containers 把模型包括的一些作为参数的张量和张量之间的联系关系记录下来。之后可以一并返回给优化器。或者在保存的时候作为一个整体被保存到硬盘上。
对于nn.Module() 创建的对象是一个callable 对象本质上是一个 函数

net = MyModule() # MyModule() extends from nn.Module 
output = net(input) # 其实调用给的是MyModule中的 forward()

pytorch模型的保存和恢复

  1. 最原始的方式是直接将Module整体 torch.save(nn.Module())

  2. 获取nn.Module 的state_dict 然后只使用torch.save保存state_dict 这样不保存模型结构 这样会比较省时间和空间 但是回复的时候 必须要有先创建之前的模型的结构 将使用torch.load() 载入的state_dict 载入到对应的 Module中即可 这种适用于训练过程中保存模型的需求

pytorch中的优化器相关

对于计算图中的每个tensor 可以从loss标量开始 使用loss.backward()计算出对应的每个tensor的 梯度 也就是 tensor.grad
创建一个优化器其时 传入的参数是 Module的 参数

# 将net1的参数传入到 SGD 优化器中
optimizer = torch.optim.SGD(net1.parameters(), lr=0.5)
# ....此处循环进行进行
optimizer.zero_grad() # 将优化器控制的网络参数的梯度清零
loss.backward()      # 反向传播计算给每个对应的tensor生成梯度
optimizer.step()     # step 就是根据learning rate 和backward 生成的参数 来更新tensor的值 

pytorch中的损失函数

损失函数的调用举例

loss = nn.CrossEntropyLoss()
input = torch.randn(3, 5, requires_grad=True)
target = torch.empty(3, dtype=torch.long).random_(5)
output = loss(input, target)
output.backward()

从上面的例子中可以看到 nn.CrossEntropyLoss 这个类创建了对象以后直接把对象当做函数用 这样看起来有一点奇怪 但是实际上是 在python中函数本身就是实现了 __call__() 方法的对象 所以其实是 在nn.CrossEntropyLoss的类方法__call__()中实现了计算交叉熵的逻辑

pytorch中的内置函数

pytorch的内置函数 比如 nn.Relu() nn.Linear() 等 和上面的交叉熵类似 本质上是类 实际上可以看做是一个可以定制化的函数 可以把一些参数 在创建具体对象的时候就像构造偏函数一样传入部分参数 数据当做最终的参数传入

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容