TensorFlow2动态GPU内存分配


TensorFlow2运行时,程序会缺省地请求开辟全部的GPU内存,导致OUT_OF_MEMORY报错。

解决方案:

import tensorflow as tf 
import os

os.environ['CUDA_VISIBLE_DEVICES'] = "0" # 具体以 TensorFlow 的 list 为准, 不是任务管理器里的 CPU id !!!
config=tf.compat.v1.ConfigProto() 

# CPU最大占用率,此处为80%(可选)
# config.gpu_options.per_process_gpu_memory_fraction=0.8

config.gpu_options.allow_growth = True  # 设置动态分配GPU内存
sess=tf.compat.v1.Session(config=config)

文章作者: sfc9982
版权声明: 本博客所有文章除特別声明外,均采用 CC BY-NC-ND 4.0 许可协议。转载请注明来源 sfc9982 !
  目录