PyTorch_Note03_张量的基本操作与线性回归

本篇为在 深度之眼 学习PyTorch笔记之一
This is one of the notes from the Deepshare

1 张量的基本操作(拼接、切分、索引以及变换)

1.1 张量的拼接

使用torch.cat()将张量按维度dim进行拼接

 torch.cat(
     tensors,     #张量序列
     dim = 0,     #要拼接的维度
     out = None)

实验代码一:

    import torch
    torch.manual_seed(1)  #为CPU设置种子用于生成随机数,以使得结果是确定的
    flag = True
    # flag = False

if flag:
    t = torch.ones((2, 3))

    t_0 = torch.cat([t, t], dim=0) #在维度为0时进行拼接,结果为[4,3]
    t_1 = torch.cat([t, t, t], dim=1) #在维度为1时进行拼接,结果为[2,9]

    print("t_0:{} shape:{}\nt_1:{} shape:{}".format(t_0, t_0.shape, t_1, t_1.shape))
    

使用torch.stack()在新创建的维度dim上进行拼接

 torch.stack(
     tensors,     #张量序列
     dim = 0,     #要拼接的维度
     out = None)

实验代码二:

    import torch
    torch.manual_seed(1)  #为CPU设置种子用于生成随机数,以使得结果是确定的
    flag = True
    # flag = False

if flag:

    t = torch.ones((2, 3))

    t_stack = torch.stack([t, t, t], dim=0) #创建一个维度并在0维上进行拼接,结果为[3,2,3]

    print("\nt_stack:{} shape:{}".format(t_stack, t_stack.shape))
    

1.2 张量的切分

使用torch.chunk()将张量按维度dim进行平均切分

Ps:如果不能被整除,最后一份张量小于其他张量

 torch.chunk(     ##返回值为张量列表
     input,       #要切分的张量
     chunks,      #要拼接的分数
     dim = 0      #要切分的维度
     )

实验代码三:

    import torch
    torch.manual_seed(1)  #为CPU设置种子用于生成随机数,以使得结果是确定的
    # flag = True
    flag = False

if flag:
    a = torch.ones((2, 7))  # 创建(2,7)的单位阵
    list_of_tensors = torch.chunk(a, dim=1, chunks=3)   # 切为3份

    for idx, t in enumerate(list_of_tensors):
        print("第{}个张量:{}, shape is {}".format(idx+1, t, t.shape))
    

使用torch.split()将张量按维度dim进行切分

 torch.split(     #返回值为张量列表
     tensor,      #要切分的张量
     split_size_or_sections,     
     #为int时,表示每一份的长度,为list时,按list元素切分
     dim = 0      #要切分的维度
     )

实验代码四:

    import torch
    torch.manual_seed(1)  #为CPU设置种子用于生成随机数,以使得结果是确定的
    # flag = True
    flag = False

if flag:
    t = torch.ones((2, 5))

    list_of_tensors = torch.split(t, [2, 1, 1], dim=1)  # 给定[2 , 1, 2]三个张量的长度,结果分别为[2,2],[2,1],[2,2 ]
    for idx, t in enumerate(list_of_tensors):
        print("第{}个张量:{}, shape is {}".format(idx+1, t, t.shape))

    # list_of_tensors = torch.split(t, [2, 1, 2], dim=1)
    # for idx, t in enumerate(list_of_tensors):
    #     print("第{}个张量:{}, shape is {}".format(idx, t, t.shape))
    

1.3 张量的索引

使用torch.index_select()在维度dim上,按index索引数据

 torch.index_select(    ##返回值依index索引数据拼接的张量
     input,       #要索引的张量
     dim,         #要索引的维度
     index,       #要索引数据的序号
     out = None   
     )

实验代码五:

    import torch
    torch.manual_seed(1)  #为CPU设置种子用于生成随机数,以使得结果是确定的
    # flag = True
    flag = False

if flag:
    t = torch.randint(0, 9, size=(3, 3)) #创建3*3的均匀分布张量
    idx = torch.tensor([0, 2], dtype=torch.long)    # 必须是long长整型,不能是float
    t_select = torch.index_select(t, dim=0, index=idx)
    print("t:\n{}\nt_select:\n{}".format(t, t_select))
    

使用torch.masked_select()按mask中的True进行索引

 torch.split(     ##返回值为一维张量
     input,       #要索引的张量
     mask,        #与input同形状的布尔类型张量
     out = None   
     )

实验代码六:

    import torch
    torch.manual_seed(1)  #为CPU设置种子用于生成随机数,以使得结果是确定的
    # flag = True
    flag = False

if flag:

    t = torch.randint(0, 9, size=(3, 3))
    mask = t.le(5)  # ge 大于等于   gt 大于  le 小于等于 lt 小于
    t_select = torch.masked_select(t, mask)
    print("t:\n{}\nmask:\n{}\nt_select:\n{} ".format(t, mask, t_select))

1.4 张量的变换

使用torch.reshape()变换张量的形状

Ps:当张量在内存中是连续的,新张量与input共享数据内存

 torch.reshape(    
     input,        #要变换的张量
     shape,        #要新张量的形状
     )

实验代码七:

    import torch
    torch.manual_seed(1)  #为CPU设置种子用于生成随机数,以使得结果是确定的
    # flag = True
    flag = False

if flag:
    t = torch.randperm(8)
    t_reshape = torch.reshape(t, (-1, 2, 2))    # -1表示这个维度不需要关心,8➗2➗2 
    print("t:{}\nt_reshape:\n{}".format(t, t_reshape))

    t[0] = 1024
    print("t:{}\nt_reshape:\n{}".format(t, t_reshape))
    print("t.data 内存地址:{}".format(id(t.data)))
    print("t_reshape.data 内存地址:{}".format(id(t_reshape.data)))

使用torch.transpose()变换张量的两个维度

 torch.transpose(     ##返回值为一维张量
     input,       #要索引的张量
     dim0,        #要交换的维度
     dim1,  
     )

实验代码八:

   import torch
   torch.manual_seed(1)  #为CPU设置种子用于生成随机数,以使得结果是确定的
   # flag = True
   flag = False

if flag:
    # torch.transpose 图像预处理中经常用到
    t = torch.rand((2, 3, 4))
    t_transpose = torch.transpose(t, dim0=1, dim1=2)    # 将c*h*w转换成 h*w*c
    print("t shape:{}\nt_transpose shape: {}".format(t.shape, t_transpose.shape))

使用torch.t() 2维张量

 torch.transpose(     ##返回值为一维张量
     input,       #要索引的张量
     dim0,        #要交换的维度
     dim1,  
     )

使用torch.squeeze()
功能: 压缩长度为1的维度(轴)

  • dim: 若为None,移除所有长度为1的轴;若指定维度,当且仅当该轴长度为1时,可以被移除;
 torch.squeeze(     
     input,       
     dim = None,       
     out = None,  
     )

实验代码九:

   import torch
   torch.manual_seed(1)  #为CPU设置种子用于生成随机数,以使得结果是确定的
   # flag = True
   flag = False

    # flag = True
    flag = False

if flag:
    t = torch.rand((1, 2, 3, 1))
    t_sq = torch.squeeze(t)
    t_0 = torch.squeeze(t, dim=0)
    t_1 = torch.squeeze(t, dim=1)
    print(t.shape)
    print(t_sq.shape)
    print(t_0.shape)
    print(t_1.shape)

使用torch.unsqueeze()
功能:依据dim扩展维度

  • dim:扩展的维度
 torch.transpose(     
     input,       
     dim,        
     out = None,  
     )

2 张量的数学运算

2.1 加减乘除

touch.add()
touch.addcdiv()
touch.addcmul()
touch.sub()
touch.div()
touch.nul()

其中,torch.add() 有着不一样的功能

torch.add()
功能:逐元素计算 input+alpha*other #先乘后加,

  • input: 第一个张量
  • alpha: 乘项目因子
  • other: 第二个张量
torch.add(
    input,
    alpha=1,
    other,
    out=None)

有两个在优化过程中经常使用的方法:

  • torch.addcdiv()实现的是加法结合除法的操作,即out=input+value*tensor1➗tensor2

  • torch.addcmul()实现的是加法结合乘法的操作,即out=input+value*tensor1*tensor2

torch.addcmul(
    input,
    value=1,
    tensor1,
    tensor2,
    out=None
)
# flag = True
flag = False

if flag: 
    t_0 = torch.randn((3, 3))
    t_1 = torch.ones_like(t_0)
    t_add = torch.add(t_0, 10, t_1)
    #t_add*t_1+t_0
    print("t_0:\n{}\nt_1:\n{}\nt_add_10:\n{}".format(t_0, t_1, t_add))

2.2 对数,指数,幂函数

touch.log(input,output=None)
touch.log10(input,output=None)
touch.log2(input,output=None)
touch.exp(input,output=None)
touch.pow()

2.3 三角函数

touch.abs(input,output=None)
touch.acos(input,output=None)
touch.cosh(input,output=None)
touch.cos(input,output=None)
touch.asin(input,output=None)
touch.atan(input,output=None)
touch.atan2(input,other,output=None)

3 线性回归(Liner Regression)

  • 线性回归是分析一个变量与另外一(多)个变量之间关系的方法。例如:y=wx+b中,y是因变量,x是自变量,求解wb即求解其线性关系。
  • 求解步骤为:
    • 1.确定模型 (Model:y = wx+b);
    • 2.选择损失函数 (MSE均方误差:$\frac{1}{m} \sum_{i=1}^m {(y_{i}-{\hat{y_i})}}^2$);
    • 3.求解梯度并更新w,b (梯度下降法: w = w - LR* w.grad, b = b -LR*w.grad); 其中, LR为Learning Rate,即步长,学习率

实验代码:

import torch
import matplotlib.pyplot as plt
torch.manual_seed(10)

lr = 0.05  # 学习率 

# 创建训练数据
x = torch.rand(20, 1) * 10  # x data (tensor), shape=(20, 1)
y = 2*x + (5 + torch.randn(20, 1))  # y data (tensor), shape=(20, 1)

# 构建线性回归参数
w = torch.randn((1), requires_grad=True)
b = torch.zeros((1), requires_grad=True)

for iteration in range(1000):

    # 前向传播
    wx = torch.mul(w, x)
    y_pred = torch.add(wx, b)

    # 计算 MSE loss
    loss = (0.5 * (y - y_pred) ** 2).mean()

    # 反向传播
    loss.backward()

    # 更新参数
    b.data.sub_(lr * b.grad)
    w.data.sub_(lr * w.grad)

    # 清零张量的梯度
    w.grad.zero_()
    b.grad.zero_()

    # 绘图
    if iteration % 20 == 0:

        plt.scatter(x.data.numpy(), y.data.numpy())
        plt.plot(x.data.numpy(), y_pred.data.numpy(), 'r-', lw=5)
        plt.text(2, 20, 'Loss=%.4f' % loss.data.numpy(), fontdict={'size': 20, 'color':  'red'})
        plt.xlim(1.5, 10)
        plt.ylim(8, 28)
        plt.title("Iteration: {}\nw: {} b: {}".format(iteration, w.data.numpy(), b.data.numpy()))
        plt.pause(0.5)

        if loss.data.numpy() < 1:
            break

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,558评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,002评论 3 387
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,036评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,024评论 1 285
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,144评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,255评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,295评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,068评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,478评论 1 305
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,789评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,965评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,649评论 4 336
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,267评论 3 318
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,982评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,223评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,800评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,847评论 2 351

推荐阅读更多精彩内容