报错tensorflow.python.framework.errors_impl.InternalError,from device: CUDA_ERROR_OUT_OF_MEMORY

此文为解决机器学习中使用tensorflow,在运行代码出现上述报错情况

1.先运行nvidia-smi      检查GPU运行情况,若内存够用进入2

2.代码应作已下修改

import tensorflow as tf
import os
os.environ["CUDA_VISIBLE_DEVICES"] = '0' #use GPU with ID=0
config = tf.ConfigProto()
config.gpu_options.per_process_gpu_memory_fraction = 0.5 # maximun alloc gpu50% of MEM
config.gpu_options.allow_growth = True #allocate dynamically
sess = tf.Session(config = config)
以上代码是让GPU运行进行动态分配内存。。
--------------------- 
作者:imumu_xi 
来源:CSDN 
原文:https://blog.csdn.net/sinat_30372583/article/details/79461468 
版权声明:本文为博主原创文章,转载请附上博文链接!

你可能感兴趣的:(报错tensorflow.python.framework.errors_impl.InternalError,from device: CUDA_ERROR_OUT_OF_MEMORY)