【Pytorch基础】torch基础介绍与简单卷积神经网络建模

from future import print_function
import torch
x=torch.Tensor(5,3)#创造未初始化矩阵
x=torch.rand(5,3)#创造随机5*3矩阵

print(x.size())

y=torch.rand(5,3)
print(x+y)
print(torch.add(x,y))

输出Tensor

result=torch.Tensor(5,3)
torch.add(x,y,out=result)
print(y.add_(x))

改变tensor内容的方法都要加下划线

print(x[:,1])#输出第二列

Tensor与numpy array共享存储空间

import numpy as np
a=np.ones(5)

b=torch.from_numpy(a)
np.add(a,1,out=a)

print(a)

print(b)#b随着a被改变

启用2019年甜品级显卡1660Ti

if torch.cuda.is_available():
x=x.cuda()
y=y.cuda()
print(x+y)

Tensor自动求导运行Autograd包,运行时定义

Variable是其核心类,一旦完成了运算,可以调用.backward()计算梯度
梯度记录在.grad属性中
每个Variable拥有一个.grad_fn属性,引用了一个创建Variable的Function,
除了用户创建的Variable其grad_fn是None
除标量外,求导方法必须传入参数grad_output,和tensor形状匹配
from torch.autograd import Variable
x=Variable(torch.ones(2,2),requires_grad=True)
y=x+2
print(y.grad_fn)
z=yy3
out=z.mean()#求和再除以面积
out.backward()
print(x.grad)#输出对x的导数

定义并使用神经网络

使用最简单的GD优化

import torch.nn as nn
import torch.nn.functional as F
class Net(nn.Module):
def init(self):
super(Net,self).init()
self.conv1=nn.Conv2d(1,6,5)#1个输入channel,6个输出channel,55卷积核
self.conv2=nn.Conv2d(6,16,5)
self.fc1=nn.Linear(16
5*5,120)
self.fc2=nn.Linear(120,84)
self.fc3=nn.Linear(84,10)

def forward(self,x):
    x=F.max_pool2d(F.relu(self.conv1(x)),(2,2))
    x=F.max_pool2d(F.relu(self.conv2(x)),2)#size写2等价于(2,2)
    x=x.view(-1,self.num_flat_features(x))#view()相当于numpy的reshape(),写-1表示不确定
    x=F.relu(self.fc1(x))
    x=F.relu(self.fc2(x))
    x=self.fc3(x)
    return x

def num_flat_features(self,x):
    size=x.size()[1:]
    num_features=1
    for s in size:
        num_features*= s
    return num_features

net=Net()
print(net)

NN的backward自动生成,模型中可学习的参数net.parameters()

params=list(net.parameters())
print(len(params))
print(params[0].size())

input=Variable(torch.randn(1,1,32,32))
out=net(input)
print(out)
out.backward(torch.randn(1,10))

output=net(input)
target=Variable(torch.range(1,10))
criterion=nn.MSELoss()
loss=criterion(output,target)
print(loss)
net.zero_grad()
loss.backward(retain_graph=True)#更新所有梯度

GD法更新权重

lr=0.001
for f in net.parameters():
f.data.sub_(f.grad.data*lr)

使用RMSProp更新梯度

import torch.optim as optim
optimizer=optim.RMSprop(net.parameters(),lr=0.001)
output=net(input)
loss=criterion(output,target)
loss.backward()
optimizer.step()

图像Pillow,openCV,声音scipy librosa,文本 nltk spacy转numpy.array

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,558评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,002评论 3 387
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,036评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,024评论 1 285
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,144评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,255评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,295评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,068评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,478评论 1 305
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,789评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,965评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,649评论 4 336
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,267评论 3 318
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,982评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,223评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,800评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,847评论 2 351