《PyTorch深度学习实践》(5)

主题

卷积神经网络(基础篇)

总结

  1. 相机成像:一个光敏电阻接受一个小的光锥,由光敏电阻阵列接受来自物理世界的光波。

  2. 卷积层的权重是4-D张量,第一个维度是输入数据的通道数

代码

只需要把对模型的定义换掉,其余不变

class Net(torch.nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.conv1 = torch.nn.Conv2d(1, 10, kernel_size=5)
        self.conv2 = torch.nn.Conv2d(10, 20,kernel_size=5)
        self.pooling = torch.nn.MaxPool2d(2)
        self.fc = torch.nn.Linear(320, 10)

    def forward(self, x):
        batch_size = x.size(0)
        x = F.relu(self.pooling(self.conv1(x)))
        x = F.relu(self.pooling(self.conv2(x)))
        x = x.view(batch_size, -1)
        x = self.fc(x)
        return x

[1,   300] Loss: 0.627
[1,   600] Loss: 0.195
[1,   900] Loss: 0.146
Accuracy on test set:96.88 %
[2,   300] Loss: 0.115
[2,   600] Loss: 0.103
[2,   900] Loss: 0.090
Accuracy on test set:97.64 %
[3,   300] Loss: 0.080
[3,   600] Loss: 0.074
[3,   900] Loss: 0.074
Accuracy on test set:97.98 %
[4,   300] Loss: 0.059
[4,   600] Loss: 0.064
[4,   900] Loss: 0.063
Accuracy on test set:98.52 %
[5,   300] Loss: 0.056
[5,   600] Loss: 0.050
[5,   900] Loss: 0.056
Accuracy on test set:98.50 %
[6,   300] Loss: 0.049
[6,   600] Loss: 0.051
[6,   900] Loss: 0.046
Accuracy on test set:98.59 %
[7,   300] Loss: 0.044
[7,   600] Loss: 0.043
[7,   900] Loss: 0.045
Accuracy on test set:98.55 %
[8,   300] Loss: 0.038
[8,   600] Loss: 0.040
[8,   900] Loss: 0.046
Accuracy on test set:98.79 %
[9,   300] Loss: 0.038
[9,   600] Loss: 0.036
[9,   900] Loss: 0.037
Accuracy on test set:98.71 %
[10,   300] Loss: 0.032
[10,   600] Loss: 0.034
[10,   900] Loss: 0.040
Accuracy on test set:98.83 %

  1. 定义模型:在def __init__(self)中不考虑batch_size的大小,在def forward中考虑batch_size的大小。

  2. 卷积层:torch.nn.Conv2d(in_channels, out_channels, kernel_size=···):kernel_size传入一个数指的是正方形尺寸,也可以传入一个元组,即矩形算子尺寸。其他参数:padding=1,bias=Fasle/True,stride=2。卷积层不必传入输入的长宽尺寸,因为它是遍历卷积

  3. MaxPooling层:torch.nn.MaxPool2d(kernel_size=2)通道数不变。因为该层没有参数,所以在定义模型时只需实例化一个,它可以被重复使用。

  4. Tensor.view()会返回一个新的Tensor,不会修改原Tensor,可以理解为是一个计算图节点。这个节点在forward阶段建立,它的传入参数需要考虑batch_size,即返回的新Tensor的尺寸的第一个维数是batch_size。在forward(self, x)中,首先写上batch_size = x.size(0)以获取当前训练传入的样本个数,后续用于x.view(batch_size, -1)

用GPU加速

迁移到GPU上分为两步:

  1. 把模型迁移至GPU:把网络的参数与结构信息全部放入GPU,转换成CUDA Tensor
model = Net()
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
model.to(device)
  1. 把数据(训练与测试)迁移至GPU:数据与模型要迁移在同一块GPU上
inputs, target = data
inputs, target = inputs.to(device), target.to(device)
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,657评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,662评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 158,143评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,732评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,837评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,036评论 1 291
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,126评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,868评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,315评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,641评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,773评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,470评论 4 333
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,126评论 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,859评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,095评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,584评论 2 362
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,676评论 2 351