CUDA out of memory

显存不足的情况下,总结了以下几种方法,任何情况都能用其中一个解决。

一、降低batch_size ,训练时间就会长点,一般这个都能解决;
二、在测试和验证代码中加入以下代码:

def test(model,dataloader):
   model.eval()
   with torch.no_grad(): #插在此处
       for batch in tqdm(dataloader):
            ……

三、在报错代码前加入以下代码,释放多余显存。

if hasattr(torch.cuda,'empty_cache'):
  torch.cuda.empty_cache();

四、重启电脑或者程序,有些隐藏的程序在占用内存。

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容