PyTorch入门学习(六):model的保存与加载

写在前面

未经允许,不得转载,谢谢~~

模块的存储与加载这个工作对于神经网络的训练还是非常重要的。当网络层数多了之后,训练起来就会很耗时。如果没有及时保存模型,那么在时间上的损失真的是很大的。

模型保存与加载

利用PyTorch可以很方便的进行模型的保存和加载,主要有以下两种方式。

方法1:保存加载整个模型

# save model
torch.save(model,'mymodel.pkl')


# load model
model=torch.load('mymodel.pkl')

方法2:仅保存加载模型参数(推荐)

# save model parameters
torch.save(model.state_dict(), 'mymodel.pkl')
# load save model parameters
model_object.load_state_dict(torch.load('mymodel.pkl'))

可以想一下为什么会推荐第二种方式呢?
相比较于保存整个模型而言,仅保存模型参数的做法应该不仅节省空间,更有灵活性的优势。
可以取出特定层的参数,这一点在已经训练好的模型上取与现有模型相同层的参数上应该有帮助。

不过这个还没有实验验证,等后面碰到再更新哇⊙⊙


更新贴~~~~~~

方法3:加载别的模型中相同的网络参数至新的模型

这个方法在科研上还是很有帮助的,可以用已经训练好的网络参数作为自己模型的网络权重的初始化。
先给出函数代码:

def transfer_weights(model_from, model_to):
    wf = copy.deepcopy(model_from.state_dict())
    wt = model_to.state_dict()
    for k in wt.keys() :
        if (not k in wf)):      
            wf[k] = wt[k]
    model_to.load_state_dict(wf)

以上就实现了从model_frommodel to的相同网络参数的拷贝。

来分析一下程序:

  • wf实现了对 model from中的模型参数的深度拷贝;
  • wt实现了对 model to模型参数的获取;
  • 下面那段for循环就是实现了如果在model to中出现的网络结构,但是在model from中没有出现,那么就拷贝一份给wf。这样做的目的是让wf扩充后的结构跟wt一样,即保留了model from中的模型参数,又将结构扩充到跟 model to的一样。
  • 这样最后一条语句就直接可以通过load_state_dict函数加载我们想要的模型参数到目标模型model to中了。

补充说明:

以上的函数要求两个模型中如果具有相同的名字,那么对应的参数带下应该是一样的。

那么如果出现模型结构名字一样,但是参数大小不一样的情况呢?

例如两个都有fc层,那么要求fc层的参数是一样的。我自己在做的时候刚好就是这种情况。
除了最后一个fc层,其他的结构都是一样的,model_form的fc是[2048,400],而model_to的fc是[2048,101]
所以就会出现如下的错误:
RuntimeError: While copying the parameter named fc.weight, whose dimensions in the model are torch.Size([101, 2048]) and whose dimensions in the checkpoint are torch.Size([400, 2048]).
就是参数维度不匹配啦。
这个时候的做法是让model_from中的该层维度跟model_to一样,在代码上的体现就是:

def transfer_weights(model_from, model_to):
    wf = copy.deepcopy(model_from.state_dict())
    wt = model_to.state_dict()
    for k in wt.keys() :
        #if (not k in wf)):     
        if ((not k in wf) | (k=='fc.weight') | (k=='fc.bias')):     
            wf[k] = wt[k]
    model_to.load_state_dict(wf)

恩,这样呢就掌握了模型参数的迁移!
有问题欢迎简信交流,谢谢~~

参考文献

pytorch学习笔记(五):保存和加载模型

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,163评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,301评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,089评论 0 352
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,093评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,110评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,079评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,005评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,840评论 0 273
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,278评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,497评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,667评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,394评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,980评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,628评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,796评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,649评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,548评论 2 352