限制TensorFlow使用的GPU资源。
固定比例
# Assume that you have 12GB of GPU memory and want to allocate ~4GB:
gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.333)
sess = tf.Session(config=tf.ConfigProto(gpu_options=gpu_options))
按需求增长
config = tf.ConfigProto()
config.gpu_options.allow_growth = True
session = tf.Session(config=config, ...)
查看GPU使用情况
详细查看
nvidia-smi
简要列出各个GPU
nvidia-smi -L
使用指定CPU
https://blog.csdn.net/m0_37041325/article/details/77488981
我的虚拟机用的是zsh,所以不是操作~/.bashrc
vim ~/.zshrc
- 在.zshrc.最下方添加
export CUDA_VISIBLE_DEVICES='XX'
(这个xx是GPU的序号,比如我这边服务器上有8个GTX1080序号是0~7,可以填入任意多个序号,序号间用逗号隔开)
source ~/.zshrc
代码内添加方法:
import os
os.environ['CUDA_VISIBLE_DEVICES'] = "0"