torch.randn
返回一个符合均值为0,方差为1的正态分布(标准正态分布)中填充随机数的张量。
Pytorch的Variable
pytorch两个基本对象:Tensor(张量)和Variable(变量)
其中,tensor不能反向传播,variable可以反向传播。
torch.from_numpy()
简单说一下,就是torch.from_numpy()方法把数组转换成张量,且二者共享内存,对张量进行修改比如重新赋值,那么原始数组也会相应发生改变。
torch.matmul()
torch.matmul是tensor的乘法,输入可以是高维的。
当输入是都是二维时,就是普通的矩阵乘法,和tensor.mm函数用法相同。
F.softmax()和F.log_softmax
F.softmax作用: 按照行或者列来做归一化的
F.log_softmax作用: 在softmax的结果上再做多一次log运算
dim指的是归一化的方式,如果为0是对列做归一化,1是对行做归一化。
F.nll_loss
在用pytorch做训练、测试时经常要用到损失函数计算输出与目标结果的差距
loss.backward()的作用
我们都知道,loss.backward()函数的作用是根据loss来计算网络参数的梯度,其对应的输入默认为网络的叶子节点,即数据集内的数据,叶子节点如下图所示:
pytorch 中的 autograd.grad()
pca.transform
fit_transform(X):用X来训练PCA模型,同时返回降维后的数据。
inverse_transform(newData) :将降维后的数据转换成原始数据,但可能不会完全一样,会有些许差别。
transform(X):将数据X转换成降维后的数据,当模型训练好后,对于新输入的数据,也可以用transform方法来降维。
torch.bmm
矩阵 * 向量
fit,transform,fit_transform区别
fit():简单来说,就是求得训练集X的均值,方差,最大值,最小值,这些训练集X固有的属性。
transform(): 在fit的基础上,进行标准化,降维,归一化等操作(看具体用的是哪个工具,如PCA,StandardScaler等)。
fit_transform():fit_transform是fit和transform的组合,既包括了训练又包含了转换。
from sklearn.preprocessing import StandardScaler
问题:为什么test就直接tranform了?
一般对于数据集处理上,会直接对训练集进行 拟合+转换,然后直接对测试集 进行转换。不太懂?对训练集的拟合会直接在测试集上用transform就能拟合了?
np.vstack()&np.hstack()
np.vstack:按垂直方向(行顺序)堆叠数组构成一个新的数组
np.hstack:按水平方向(列顺序)堆叠数组构成一个新的数组
enumerate
enumerate() 函数用于将一个可遍历的数据对象(如列表、元组或字符串)组合为一个索引序列,同时列出数据和数据下标,一般用在 for 循环当中。
np.random.randint
函数的作用是,返回一个随机整型数,范围从低(包括)到高(不包括),即[low, high)