Suever的答案正确显示了如何将您的操作固定到特定的GPU。但是,如果您在同一台计算机上运行多个TensorFlow程序,建议您
CUDA_VISIBLE_DEVICES在启动进程之前将环境变量设置为公开不同的GPU。否则,TensorFlow将尝试在所有可用GPU上分配几乎整个内存,这将阻止其他进程使用这些GPU(即使当前进程未使用它们)。
请注意,如果使用
CUDA_VISIBLE_DEVICES,则设备名称
"/gpu:0",
"/gpu:1"等等,是指当前进程中的第0和第1个
可见 设备。



