我的数据科学之路-用pytorch做深度学习

    上一篇文章介绍了深度学习的基本原理,核心过程就是正向传播与反向传播,正向传播由输入到输出,完成一次预测,反向传播是由计算所得输出算出与真实值的差距,然后反向计算梯度,优化模型。实际使用深度学习的时候这个过程相对是比较机械的,使用一些集成库可以简化这个操作,不用每次自己写代码完成所有细节。本篇介绍一个相对比较新也比较好用的库pytorch。pytorch是一个facebook团队研发的开源机器学习库,使用它可以很方便的完成深度学习的过程,本篇使用它完成一个基本的构建模型-训练-测量的过程。

#第一步,导包

import torch

from torch import nn

from torch import optim

import torch.nn.functional as F

from torchvision import datasets, transforms, models


#第二步,导入数据,此步骤中因为现实数据通常是各种各样的,所以可以使用transforms来对数据进行一些#变换,如旋转剪裁等,是数据达到统一标准

train_transforms =transforms.Compose([transforms.RandomRotation(30),

                             transforms.RandomResizedCrop(224),

                             transforms.RandomHorizontalFlip(),

                             transforms.ToTensor(),

                            #颜色通道

                             transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])])

test_transforms =transforms.Compose([transforms.Resize(255),

                             transforms.CenterCrop(224), transforms.ToTensor(),

                            transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])])

# Pass transforms in here, then run the next cell to see how the transforms look

train_data = datasets.ImageFolder(data_dir + '/train', transform=train_transforms)

test_data = datasets.ImageFolder(data_dir + '/test', transform=test_transforms)

trainloader = torch.utils.data.DataLoader(train_data, batch_size=32, shuffle=True)

testloader = torch.utils.data.DataLoader(test_data, batch_size=32)


#第三步,构建神经网络,可以完全自己定义,层数,节点,函数等,也可以使用经过预训练的模型

class Classifier(nn.Module):

    def __init__(self):

        super().__init__()

        self.fc1 = nn.Linear(150528,1024)

        self.fc2 = nn.Linear(1024,784)

        self.fc3 = nn.Linear(784, 256)

        self.fc4 = nn.Linear(256, 128)

        self.fc5 = nn.Linear(128, 64)

        self.fc6 = nn.Linear(64, 2)

        self.dropout = nn.Dropout(p=0.2)


    def forward(self, x):

        # make sure input tensor is flattened

        x = x.view(x.shape[0], -1)

        x = self.dropout(F.relu(self.fc1(x)))

        x = self.dropout(F.relu(self.fc2(x)))

        x = self.dropout(F.relu(self.fc3(x)))

        x = self.dropout(F.relu(self.fc4(x)))

        x = self.dropout(F.relu(self.fc5(x)))

        x = F.log_softmax(self.fc6(x), dim=1)


        return x

model = Classifier()


model = models.densenet121(pretrained=True)

for param in model.parameters():

    param.requires_grad = False

from collections import OrderedDict

classifier = nn.Sequential(OrderedDict([

                          ('fc1', nn.Linear(1024, 500)),

                          ('relu', nn.ReLU()),

                          ('fc2', nn.Linear(500, 2)),

                          ('output', nn.LogSoftmax(dim=1))

                          ]))

#保持隐层参数不变,修改输出层

model.classifier = classifier


#第四步,定义损失函数和训练方法

criterion = nn.NLLLoss()

optimizer = optim.Adam(model.classifier.parameters(), lr=0.003)


#第五步,循环训练模型并输出性能变化

for e in range(epochs):

    running_loss=0

    for images,labels in trainloader:

        optimizer.zero_grad()

        log_ps=model(images)

        loss=criterion(log_ps,labels)

        loss.backward()

        running_loss+=loss.item()

        optimizer.step()

        steps+=1

        if steps%3==0:

            test_loss=0

            accuracy=0

            model.eval()

            with torch.no_grad():

                for inputs,labels in testloader:

                    log_ps=model(inputs)

                    loss=criterion(log_ps,labels)

                    test_loss+=loss.item()

                    ps=torch.exp(log_ps)

                    top_p, top_class = ps.topk(1, dim=1)

                    equals=top_class==labels.view(*top_class.shape)

                    accuracy+=torch.mean(equals.type(torch.FloatTensor)).item()

                print(f"epoch:{e+1}/{epochs}\ntrain_loss:{running_loss/5:.3f}\ntest_loss:{test_loss/5:.3f}\n.. "

                    f"accuracy:{accuracy/len(testloader):.3f}")

                running_loss=0

                model.train()

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,547评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,399评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,428评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,599评论 1 274
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,612评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,577评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,941评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,603评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,852评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,605评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,693评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,375评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,955评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,936评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,172评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,970评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,414评论 2 342

推荐阅读更多精彩内容