Pytorch框架学习(2)——张量操作与线性回归

张量操作与线性回归

1. 张量的操作:拼接、切分、索引和变换

1.1 张量的拼接与切分

  • torch.cat()

  • 功能:将张量按维度dim进行拼接(不会扩充张量的维度)

    • tensors:张量序列
    • dim:要拼接的维度
  • torch.stack()

  • 功能:在新创建的维度dim上进行拼接(创建新的维度扩充张量)

    • tensors:张量序列
    • dim:要拼接的维度
  • torch.chunk()

  • 功能:将张量按维度dim进行平均切分

  • 返回值:张量列表

  • 注意:若不能整除,最后一份张量小于其他张量

    • input:要切分的张量
    • chunks:要切分的份数
    • dim:要切分的维度
  • torch.split()

  • 功能:将张量按维度dim进行切分

  • 返回值:张量列表

    • tensor:要切分的张量
    • split_size_or_sections:为int时,表示每一份的长度;为list时,按list元素切分
    • dim:要切分的维度
t = torch.ones(2, 5)
list_of_tensors = torch.split(t, [2, 1, 2], dim=1)
for idx, t in enumerate(list_of_tensors):
    print('第{}个张量:{},shape is {}'.format(idx + 1, t, t.shape))

结果为:

第1个张量:tensor([[1., 1.],
[1., 1.]]),shape is torch.Size([2, 2])
第2个张量:tensor([[1.],
[1.]]),shape is torch.Size([2, 1])
第3个张量:tensor([[1., 1.],
[1., 1.]]),shape is torch.Size([2, 2])

1.2 张量索引

  • torch.index_select()
  • 功能:在维度dim上,按index索引数据
  • 返回值:依index索引数据拼接的张量
    • input:要索引的张量
    • dim:要索引的维度
    • index:要索引数据的序号(tensor数据结构,tensor里面的数据必须为长整型,torch.long)
t = torch.randint(0, 9, size=(3, 3))
idx = torch.tensor([0, 2], dtype=torch.long)
t_select = torch.index_select(t, dim=0, index=idx)
print('t:\n{}\nt_select\n:{}'.format(t, t_select))

结果为:

t:
tensor([[5, 8, 2],
        [1, 3, 0],
        [2, 1, 6]])
t_select
:tensor([[5, 8, 2],
        [2, 1, 6]])
  • torch.masked_select()
  • 功能:按mask中的True进行索引,通常用来筛选数据
  • 返回值:一维张量
    • input:要索引的张量
    • mask:与input同形状的布尔类型张量
t = torch.randint(0, 9, size=(3, 3))
mask = t.ge(5) # ge is mean greater than or equal.  gt is mean greater than . 还有le和lt
t_select = torch.masked_select(t, mask)
print('t:\n{}\nt_select\n:{}'.format(t, t_select))

结果为:

t:
tensor([[5, 7, 2],
        [1, 6, 6],
        [1, 1, 8]])
t_select
:tensor([5, 7, 6, 6, 8])

1.3 张量变换

  • torch.reshape()
  • 功能:变换张量形状
  • 注意:当张量在内存中是连续时,新张量与input共享数据内存
    • input:要变换的张量
    • shape:新张量的形状
        t = torch.randperm(8)
        t_reshape = torch.reshape(t, (2, 4))
        print('t:{}\nt_reshape:\n{}'.format(t, t_reshape))
        print('t.data内存地址:{}\nt_reshape.data内存地址:{}'.format(id(t.data), id(t_reshape.data)))

结果为:

t:tensor([0, 4, 1, 3, 5, 7, 6, 2])
t_reshape:
tensor([[0, 4, 1, 3],
        [5, 7, 6, 2]])
t.data内存地址:2126059754696
t_reshape.data内存地址:2126059754696
  • torch.transpose()

  • 功能:交换张量的两个维度

    • input:要交换的张量
    • dim0:要交换的维度
    • dim1:要交换的维度
  • torch.t()

  • 功能:2维张量转置,对矩阵而言,等价于torch.transpose(input, 0, 1)

  • torch.sequeeze()

  • 功能:压缩长度为1的维度(轴)

    • dim:若为None,移除所有长度为1的轴;若指定维度,当且仅当该轴长度为1时,可以被移除。
  • torch.unsequeeze()

  • 功能:依据dim扩展维度

    • dim:扩展的维度
        t = torch.rand((1, 2, 3, 1))
        t_sq = torch.squeeze(t)
        t_0 = torch.squeeze(t, dim=0)
        t_1 = torch.squeeze(t, dim=1)
        print(t.shape)
        print(t_sq.shape)
        print(t_0.shape)
        print(t_1.shape)

结果为:

torch.Size([1, 2, 3, 1])
torch.Size([2, 3])
torch.Size([2, 3, 1])
torch.Size([1, 2, 3, 1])

2.张量的数学运算

张量之间可以进行加减乘除,可以进行对数、指数、幂函数运算,可以进行三角函数运算


在这里插入图片描述

这里简单介绍加法运算

  • torch.add()
  • 功能:逐元素计算input+alpha+other
    • input:第一个张量
    • alpha:乘项因子
    • other:第二个张量

除此之外,还有两个加法运算,一个是加法结合除法,另一个是加法结合乘法

  • torch.addcdiv() out_i = input_i + value \times \frac{tensor1_i}{tensor2_i}
  • torch.addcmul() intpu_i + value \times tensor1_i \times tensor2_i

3.线性回归

线性回归是分析一个变量与另外一个(多)个变量之间关系的方法。

  • 因变量:y
  • 自变量:x
  • 关系:线性 y = wx + b
  • 分析:求解w,b

3.1 求解步骤

  1. 确定模型:
    Model : y = wx + b
  2. 选择损失函数loss:
    一般选择均方误差MSE:\frac{1}{m} \sum_{i=1}^{m}(y_i -\hat{y_i})^2
  3. 求解梯度并更新w,b:
    w = w - LR * w.grad(LR为步长,学习率)
    b = b - LR * w.grad

import torch
import matplotlib.pyplot as plt


def main():

    torch.manual_seed(10)

    # 学习率
    lr = 0.05

    # 创建训练数据
    x = torch.rand(20, 1) * 10
    y = 2*x + (5 + torch.randn(20, 1)) # y值随机加入扰动

    #构建线性回归模型
    w = torch.randn((1), requires_grad=True)
    b = torch.zeros((1), requires_grad=True)

    for iteration in range(1000):

        # 前向传播
        wx = torch.mul(w, x)
        y_pred = torch.add(wx, b)

         # 计算损失函数MSE
        loss = (0.5 * (y - y_pred)**2).mean()

        # 反向传播
        loss.backward()

        #更新参数
        b.data.sub_(lr * b.grad)
        w.data.sub_(lr * w.grad)

        # 清零张量的梯度   20191015增加
        w.grad.zero_()
        b.grad.zero_()

        # 绘图
        if iteration % 20 == 0:
            plt.scatter(x.data.numpy(), y.data.numpy())
            plt.plot(x.data.numpy(), y_pred.data.numpy(), 'r-', lw=5)
            plt.text(2, 20, 'loss=%.4f' % loss.data.numpy(), fontdict={'size': 20, 'color': 'red'})
            plt.xlim(1.5, 10)
            plt.ylim(8, 28)
            plt.title('Iteratiion:{}\nw:{} b:{}'.format(iteration, w.data.numpy(), b.data.numpy()))
            plt.pause(0.5)

            if loss.data.numpy() < 1:
                break


if __name__ == '__main__':
    main()
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 221,820评论 6 515
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 94,648评论 3 399
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 168,324评论 0 360
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,714评论 1 297
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,724评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 52,328评论 1 310
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,897评论 3 421
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,804评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,345评论 1 318
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,431评论 3 340
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,561评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 36,238评论 5 350
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,928评论 3 334
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,417评论 0 24
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,528评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,983评论 3 376
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,573评论 2 359

推荐阅读更多精彩内容