深入浅出pytorch学习记录

今天是正式学习pytorch 的一天。pytorch 的版本现在已经升级更新了很多。因此也需要更多注意事项。

我这次学习是在ubuntu 的环境下进行。同时也安装了cuda版本的pytorch 。

每次运行需要先激活环境。


conda activate datawhale

python

import torch


启动

后续开始正式学习

新的知识点

tensor,一种数据格式,常见用法(具体需要见相关说明)

torch.rand(4,3)

torch.zeros(4,3,dtype=torch.long)

构建张量

x = torch.tensor([5.5, 3])

意思是利用torch库,创建了一个tensor的数据结构

因此,可以说torch是创建和操作tensor的工具和平台,而tensor则是torch提供的基本数据结构之一。


x = torch.randn_like(x, dtype=torch.float)

翻译:

x:是一个已经存在的张量,其形状将被用于生成新的张量。

torch.randn_like(x, dtype=torch.float):这个函数调用旨在生成一个与x形状相同的新张量,但您试图通过dtype=torch.float参数指定数据类型。

这里最好明确是float32,float64。


张量的加法

类似矩阵的加法


张量可以进行索引

索引的量会改变原来的值

例子

import torch

x = torch.rand(4,3)

print(x[:, 1])

x 是之前创建的 4x3 张量。

: 表示选择该维度的所有元素。在这个例子中,它位于索引的第一个位置,意味着选择所有行。

1 表示选择索引为 1 的列(在 Python 和 PyTorch 中,索引是从 0 开始的,所以 1 实际上是指第二列)。


维度变化

现在有说法认为

x = torch.randn(4, 4)

y = x.view(16)

z = x.view(-1, 8)这种书写方式不太可行。

注: torch.view() 返回的新tensor与源tensor共享内存(其实是同一个tensor)

view之前最好clone一下


这里说为了让PyTorch跟踪一个张量的操作以便自动计算梯度,你需要设置这个张量的.requires_grad属性为True。


grad_fn=<PowBackward0>表明这个张量有一个与之关联的反向传播函数,该函数用于在反向传播时计算梯度。


a.requires_grad_(True)改变了张量的.requires_grad属性


x = torch.randn(3, requires_grad=True)

print(x)  # 打印x的初始值

y = x * 2

i = 0

while y.norm() < 1000:  # 注意:这里应该直接使用y.norm(),而不是y.data.norm()

    y = y * 2

    i = i + 1

print(y)

print(i)新版代码建议使用这一段



如果y不是一个标量而是一个向量或矩阵,并且你调用了y.backward(v),那么v的形状必须与y相同。

在调用.backward()方法之前,确保所有需要梯度的张量(如x)的.grad属性已经被清零(如果需要的话),否则梯度会被累加。这通常通过调用optimizer.zero_grad()(如果你在使用优化器的话)或手动设置.grad = None(然后调用.backward()时会重新分配梯度张量)来完成。

在这个例子中,没有显示x和y的定义以及它们之间的计算关系,所以这些解释是基于常见的PyTorch用法和假设的。在实际代码中,你需要确保这些关系是正确的。

这段话稍微有点懂了


重要说明:

直接操作.data属性是不被推荐的,因为它绕过了梯度计算图,可能导致梯度不正确或计算图不一致。

在实际应用中,应该避免直接修改张量的值,而是通过优化器(如SGD、Adam等)来更新它们。

如果需要修改张量的值而不影响梯度计算,可以考虑创建一个新的张量或使用其他方法来间接实现这一点。

在较新版本的PyTorch中,.data属性的使用可能会引发警告或错误,因此应该寻找替代方法来实现相同的功能。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容