pytorch学习(2)

关于pytorch之GPU使用以及#CUDA_VISIBLE_DEVICES使用

1.使用命令nvidia-smi查看当前GPU数量,其中每个GPU被编上了顺序的序号,比如是4个GPU,就是[0,1,2,3]


我这台电脑就没GPU

2.在默认情况下,标号为0的显卡为主卡,如果有多个的话

通过os.environ["CUDA_VISIBLE_DEVICES"]指定所要使用的显卡,如:

os.environ["CUDA_VISIBLE_DEVICES"] = "3,2,0,1"

model = torch.nn.DataParallel(model, device_ids=[0,2,3]).cuda()

此时,3号显卡就变成了主卡,在使用torch.nn.DataParallel指定运算显卡时,显卡的对应关系如下:

实际显卡编号----->运算显卡编号

    3    ----->    0(主卡)

    2    ----->    1

    0    ----->    2

    1    ----->    3

3. 使用所有存在的显卡

在存在多卡的条件下,最简单的方法是直接使用torch.nn.DataParallel将你的模型wrap一下即可:

net = torch.nn.DataParallel(model)

这时,默认所有存在的显卡都会被使用

4.指定编号使用显卡

如果有很多显卡(例如我们有4张显卡),但只想使用0、1、2号显卡,那么可以:

net = torch.nn.DataParallel(model, device_ids=[0, 1, 2])

或者:

os.environ["CUDA_VISIBLE_DEVICES"] = ','.join(map(str, [0,1,2])) # 一般在程序开头设置

# 等价于os.environ["CUDA_VISIBLE_DEVICES"] = '0,1,2'

net = torch.nn.DataParallel(model)

CUDA_VISIBLE_DEVICES表示当前可以被python环境程序检测到的显卡

如果只需要指定一张卡,可以使用torch.cuda.set_device(1)指定gpu使用编号

(不建议用这个方法)

torch.cuda.set_device(1)

print(torch.cuda.device_count()) #可用GPU数量

我的机器是0卡,所以print结果是:0,若是4卡,输出是4,说明用torch.cuda.set_device(1)指定,不会改变可见的显卡)

后面还可以用torch.nn.DataParallel(model, device_ids=[1, 2])进行指定,

但是必须包含set_device(1)指定的device:1的设备,缺点是仍然会存在占用一些device:0的gpu内存;

5.os.environ[“CUDA_VISIBLE_DEVICES”]详解

(1) [“CUDA_VISIBLE_DEVICES”]使用

CUDA_VISIBLE_DEVICES表示当前可以被python环境程序检测到的显卡

os.environ["CUDA_VISIBLE_DEVICES"] = ','.join(map(str, [0,1,2])) # 一般在程序开头设置

# 等价于os.environ["CUDA_VISIBLE_DEVICES"] = '0,1,2'

os.environ["CUDA_VISIBLE_DEVICES"] = '1,2'进行指定使用设备

这样会修改pytorch感受的设备编号,pytorch感知的编号还是从device:0开始。如上则把1号显卡改为device:0,1号显卡改为device:1,使用时应该这么写:

os.environ["CUDA_VISIBLE_DEVICES"] = '1,2'

torch.nn.DataParallel(model, device_ids=[0,1])

(2)关于设置[“CUDA_VISIBLE_DEVICES”]无效的解决

不生效的原因是,这一行代码放置的位置不对。

一定要把os.environ['CUDA_VISIBLE_DEVICES']='1'放在所有访问GPU的代码之前。

torch.cuda.device_count()

6.torch.cuda主要函数

(1)torch.cuda.is_available()判断GPU是否可用

import torch

print(torch.cuda.is_available())

(2)torch.cuda.device_count()查看可用GPU数量

os.environ["CUDA_VISIBLE_DEVICES"] = '0,1,2'

print(torch.cuda.device_count())

(3)torch.cuda.current_device()查看当前使用的GPU序号

os.environ["CUDA_VISIBLE_DEVICES"] = '1,2'

print(torch.cuda.current_device())

这样就证明了我们上面说的,os.environ["CUDA_VISIBLE_DEVICES"] = '1,2'进行指定使用设备,会修改pytorch感受的设备编号,pytorch感知的编号还是从device:0开始

(4)其他一些函数

查看指定GPU的容量、名称

torch.cuda.get_device_capability(device)

torch.cuda.get_device_name(device)

清空程序占用的GPU资源

torch.cuda.empty_cache()

为GPU设置随机种子

torch.cuda.manual_seed(seed)


参考:https://blog.csdn.net/qq_34243930/article/details/106695877

torch.cuda.manual_seed_all(seed)

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容