强烈推荐CoLab

image.png

现在使用的笔记本独立显卡940MX,比i7CPU快了大概5倍左右,但是在深度学习中依旧提升不明显。

最近跑的这几个NLP模型(从LSTM Seq2Seq到GRU到Attention),随着模型的复杂以及数据量的问题,大概测了时间。

  • LSTM模型:CPU(30分钟),940mx(5分钟)
  • GRU模型:同上
  • Attention模型:CPU(没测),940mx(20分钟)

有时候我一觉醒来还在处理,慢得一批……

CoLab之前也有学习,但是总感觉比较繁琐,今天看了一篇博文 Colab 免费提供 Tesla T4 GPU,是时候薅羊毛了 ,竟然换成T4 GPU,果断试一下,将同样的Attention模型代码导入测试,1个迭代降到48秒……OK,我决定投靠CoLab……

目前还在学习中,因为使用的预训练模型比较小,CoLab下载速度也很快(包括Spacy的de和en语料,不知道墙了多少好东西啊……),之后要解决的是训练好的模型下载重载问题。今天试了模型重载,tensor数据有一点问题,可能是本地的语料库数据版本问题。

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容