今天是正式学习pytorch 的一天。pytorch 的版本现在已经升级更新了很多。因此也需要更多注意事项。
我这次学习是在ubuntu 的环境下进行。同时也安装了cuda版本的pytorch 。
每次运行需要先激活环境。
conda activate datawhale
python
import torch
启动
后续开始正式学习
新的知识点
tensor,一种数据格式,常见用法(具体需要见相关说明)
torch.rand(4,3)
torch.zeros(4,3,dtype=torch.long)
构建张量
x = torch.tensor([5.5, 3])
意思是利用torch库,创建了一个tensor的数据结构
因此,可以说torch是创建和操作tensor的工具和平台,而tensor则是torch提供的基本数据结构之一。
x = torch.randn_like(x, dtype=torch.float)
翻译:
x:是一个已经存在的张量,其形状将被用于生成新的张量。
torch.randn_like(x, dtype=torch.float):这个函数调用旨在生成一个与x形状相同的新张量,但您试图通过dtype=torch.float参数指定数据类型。
这里最好明确是float32,float64。
张量的加法
类似矩阵的加法
张量可以进行索引
索引的量会改变原来的值
例子
import torch
x = torch.rand(4,3)
print(x[:, 1])
x 是之前创建的 4x3 张量。
: 表示选择该维度的所有元素。在这个例子中,它位于索引的第一个位置,意味着选择所有行。
1 表示选择索引为 1 的列(在 Python 和 PyTorch 中,索引是从 0 开始的,所以 1 实际上是指第二列)。
维度变化
现在有说法认为
x = torch.randn(4, 4)
y = x.view(16)
z = x.view(-1, 8)这种书写方式不太可行。
注: torch.view() 返回的新tensor与源tensor共享内存(其实是同一个tensor)
view之前最好clone一下
这里说为了让PyTorch跟踪一个张量的操作以便自动计算梯度,你需要设置这个张量的.requires_grad属性为True。
grad_fn=<PowBackward0>表明这个张量有一个与之关联的反向传播函数,该函数用于在反向传播时计算梯度。
a.requires_grad_(True)改变了张量的.requires_grad属性
x = torch.randn(3, requires_grad=True)
print(x) # 打印x的初始值
y = x * 2
i = 0
while y.norm() < 1000: # 注意:这里应该直接使用y.norm(),而不是y.data.norm()
y = y * 2
i = i + 1
print(y)
print(i)新版代码建议使用这一段
如果y不是一个标量而是一个向量或矩阵,并且你调用了y.backward(v),那么v的形状必须与y相同。
在调用.backward()方法之前,确保所有需要梯度的张量(如x)的.grad属性已经被清零(如果需要的话),否则梯度会被累加。这通常通过调用optimizer.zero_grad()(如果你在使用优化器的话)或手动设置.grad = None(然后调用.backward()时会重新分配梯度张量)来完成。
在这个例子中,没有显示x和y的定义以及它们之间的计算关系,所以这些解释是基于常见的PyTorch用法和假设的。在实际代码中,你需要确保这些关系是正确的。
这段话稍微有点懂了
重要说明:
直接操作.data属性是不被推荐的,因为它绕过了梯度计算图,可能导致梯度不正确或计算图不一致。
在实际应用中,应该避免直接修改张量的值,而是通过优化器(如SGD、Adam等)来更新它们。
如果需要修改张量的值而不影响梯度计算,可以考虑创建一个新的张量或使用其他方法来间接实现这一点。
在较新版本的PyTorch中,.data属性的使用可能会引发警告或错误,因此应该寻找替代方法来实现相同的功能。