nvidia-smi GPU的程序kill后未释放显存

tensorflow数据并行,中途中断了,毕竟头一次自己的程序并行跑,很有可能就出错。结果某次出错,GPU并未释放内存;

nvidia-smi GPU的程序kill后未释放显存_第1张图片

 

1  fuser -v /dev/nvidia*

 

nvidia-smi GPU的程序kill后未释放显存_第2张图片

然后需要逐个杀死,注意使用管理员身份

杀死之后,世界清净了:

nvidia-smi GPU的程序kill后未释放显存_第3张图片

你可能感兴趣的:(nvidia-smi GPU的程序kill后未释放显存)