CS231n Spring 2019 Assignment 2—PyTorch学习

这是作业2的最后一次,是学习一个现在主流的框架,因为在这些框架里面,可以让tensor运行在GPU上,加速我们的训练。我选择了PyTorch,因为PyTorch比较适合研究,动态图机制,代码较Tensorflow更加简洁易懂(不过不知道2.0出来以后的改变大不大),有像numpy的编程风格,这次使用的版本是1.0的。详细的API文档PyTorch forum证明PyTorch生态环境正在越来越好(个人感觉API文档写得比Tensorflow详细)。
在这次的PyTorch.ipynb里面,就是学习三个层次的构建模型并训练,从原初的低级API到后来的集成度很高的高级API,并且用这三种方式分别都构建了一个2层的全连接网络和一个3层的卷积神经网络,并且训练它们,以此突出对比,下面就是三种API的对比:

API Flexibility Convenience
Barebone High Low
nn.Module High Medium
nn.Sequential Low High

Barebones PyTorch

这一节没有多少要写的,它给出了两层的全连接的做示范,要你写三层的卷积网络的搭建和训练部分:直接上代码吧:
three_layer_convnet部分,主要参看函数torch.nn.functional.conv2d

# *****START OF YOUR CODE (DO NOT DELETE/MODIFY THIS LINE)*****

x = F.conv2d(x, conv_w1, bias=conv_b1, padding=2, stride=1)
x = F.relu(x)
x = F.conv2d(x, conv_w2, bias=conv_b2, padding=1, stride=1)
x = F.relu(x)
x = flatten(x)
scores = x.mm(fc_w) + fc_b

# *****END OF YOUR CODE (DO NOT DELETE/MODIFY THIS LINE)*****

Training a ConvNet部分:主要运用上面的random_weight和zero_weight:

# *****START OF YOUR CODE (DO NOT DELETE/MODIFY THIS LINE)*****

conv_w1 = random_weight((channel_1, 3, 5, 5))
conv_b1 = zero_weight(channel_1)
conv_w2 = random_weight((channel_2, channel_1, 3, 3))
conv_b2 = zero_weight(channel_2)
fc_w = random_weight((channel_2 * 32 * 32, 10))
fc_b = zero_weight(10)

# *****END OF YOUR CODE (DO NOT DELETE/MODIFY THIS LINE)*****

PyTorch Module API

这一部分就是继承稍微高级的nn.Module类,来定义一个自己的网络结构,用这类方法灵活性高,主要是完成类属性init()和forward()的定义。这里还是写三层的卷积网络的搭建和训练部分,只不过换种方式:
ThreeLayerConvNet部分:主要参考nn.Conv2d()

# *****START OF YOUR CODE (DO NOT DELETE/MODIFY THIS LINE)*****
"""torch.nn.Conv2d(in_channels, out_channels, 
                kernel_size, stride=1, padding=0, 
                dilation=1, groups=1, bias=True, padding_mode='zeros')
"""

self.conv1 = nn.Conv2d(in_channel, channel_1, 5, padding=2)
nn.init.kaiming_normal_(self.conv1.weight)
self.conv2 = nn.Conv2d(channel_1, channel_2, 3, padding=1)
nn.init.kaiming_normal_(self.conv2.weight)
self.fc = nn.Linear(channel_2 * 32 * 32, num_classes)
nn.init.kaiming_normal_(self.fc.weight)

# *****END OF YOUR CODE (DO NOT DELETE/MODIFY THIS LINE)*****

# *****START OF YOUR CODE (DO NOT DELETE/MODIFY THIS LINE)*****

x = F.relu(self.conv1(x))
x = F.relu(self.conv2(x))
x = flatten(x)
scores = self.fc(x)

# *****END OF YOUR CODE (DO NOT DELETE/MODIFY THIS LINE)*****

Train a Three-Layer ConvNet部分,定义model和optimizer

# *****START OF YOUR CODE (DO NOT DELETE/MODIFY THIS LINE)*****

model = ThreeLayerConvNet(in_channel=3, channel_1=channel_1, channel_2=channel_2, num_classes=10)
optimizer = optim.SGD(model.parameters(), lr=learning_rate)

# *****END OF YOUR CODE (DO NOT DELETE/MODIFY THIS LINE)*****

PyTorch Sequential API

这是更高级的一个API:nn.Sequential,但是灵活性会差点,但是不用写forward()部分了,会自动完成的,只要搭建一个架构就行了,经实验也不需要自己写初始化权重的部分:

# *****START OF YOUR CODE (DO NOT DELETE/MODIFY THIS LINE)*****
"""torch.nn.Conv2d(in_channels, out_channels, 
                        kernel_size, stride=1, padding=0, 
                        dilation=1, groups=1, bias=True, padding_mode='zeros')
"""

model = nn.Sequential(
    nn.Conv2d(3, channel_1, 5, padding=2),
    nn.ReLU(),
    nn.Conv2d(channel_1, channel_2, 3, padding=1),
    nn.ReLU(),
    Flatten(),
    nn.Linear(channel_2*32*32, 10),
)

optimizer = optim.SGD(model.parameters(), lr=learning_rate,
                     momentum=0.9, nesterov=True)

# *****END OF YOUR CODE (DO NOT DELETE/MODIFY THIS LINE)*****

CIFAR-10 open-ended challenge

最后是一个开放式挑战,就是自己搭建网络模型,选择优化器,来在cifar10上训练,至少达到验证集上70%的准确率,自己训练了几次以后发现达不到精度,后来就借鉴了AlexNet的模型,并且根据自己的显卡情况(我自己笔记本电脑跑的,显卡为只有2G显存的GTX930M),扔掉了一些层,使之能刚好在我笔记本电脑上训练,最后也达到了要求:

# *****START OF YOUR CODE (DO NOT DELETE/MODIFY THIS LINE)*****

learning_rate = 1e-3

class Net(nn.Module):

    def __init__(self, num_classes=10):
        super(Net, self).__init__()
        self.features = nn.Sequential(
            nn.Conv2d(3, 32, kernel_size=3, stride=1, padding=1), #(64,32,32,32)
            nn.ReLU(inplace=True),
            nn.MaxPool2d(kernel_size=2, stride=1, padding=1), #(64,32,32,32)
            
            nn.Conv2d(32, 64, kernel_size=5, stride=1, padding=0), #(64,64,28,28)
            nn.ReLU(inplace=True),
            nn.MaxPool2d(kernel_size=2, stride=1, padding=1), #(64,64,28,28)
            
            nn.Conv2d(64, 128, kernel_size=3, stride=1, padding=1),  #(64,128,28,28)
            nn.ReLU(inplace=True),
            
            nn.Conv2d(128, 256, kernel_size=3, stride=1, padding=1), #(64,256,28,28)
            nn.ReLU(inplace=True),
            nn.MaxPool2d(kernel_size=2, stride=2), #(64,256,14,14)
        )
        self.avgpool = nn.AdaptiveAvgPool2d((7, 7)) #(64,256,7,7)
        self.classifier = nn.Sequential(
            nn.Dropout(),
            nn.Linear(256 * 7 * 7, num_classes),
        )

    def forward(self, x):
        x = self.features(x)
        x = self.avgpool(x)
        x = x.view(x.size(0), 256 * 7 * 7)
        x = self.classifier(x)
        return x

model = Net()
optimizer = optim.Adam(model.parameters(), lr=learning_rate)

# *****END OF YOUR CODE (DO NOT DELETE/MODIFY THIS LINE)*****

结果

对于最后的那个开放式挑战,经过10个epoch训练,我在验证集上达到了78.30%的准确率,在测试集上达到了78.06%的准确率!
具体可见PyTorch.ipynb

链接

前后面的作业博文请见:

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,451评论 6 506
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,172评论 3 394
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,782评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,709评论 1 294
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,733评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,578评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,320评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,241评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,686评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,878评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,992评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,715评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,336评论 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,912评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,040评论 1 270
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,173评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,947评论 2 355