深入解决keras、tf的gpu运行问题

之前写过一篇配置keras+tensorflow+cudnn的GPU环境配置教程,但后面主要用Pytorch去了。最近因为项目的原因又回来用tensorflow-gpu,结果发现了几个新的配置问题,网上也没相关的资料,花了一天时间才解决,记录如下。

问题描述

使用conda install tensorflow-gpu keras的时候,总会安装tensorflow(CPU版本)的依赖包,导致始终无法成功运行GPU。即使用pip单独安装keras与tf-gpu或者安装后卸载tensorflow(CPU版本)也无法正常运行GPU。

问题原因

1.conda install机制问题,将cpu版本的tf当作依赖包,却又不把cudnn与cudatoolkit包含在内。

2.keras、tensorflow-gpu、cudnn、cudatoolkit之间的版本对应关系

解决办法

分析出原因之后就是反复地卸载、安装相关包,首先把所有的keras、tf库卸载,pip安装的用pip卸载,conda安装的用conda卸载。可能用到以下几个命令:

conda install xxx --no-deps    #不安装依赖包
conda remove --force xxx       #只删除xxx包,不删除依赖包

然后就是安装tf-gpu,为了万无一失,我在网站手动下载了.whl文件再用pip离线安装,修改下载链接中的数字可以更改版本。这里我选择tf-gpu_2.4.0,对应的分别是keras_2.4.3、cudatoolkit_11.3、cudnn_8.2.1。命令如下:

pip install C:\Downloads\tensorflow_gpu-2.4.0-cp37-cp37m-win_amd64.whl
pip install keras==2.4.3
conda install cudatoolkit --no-deps
conda install cudnn --no-deps

由于是逐个安装,有一些其它的依赖包如urllib3、brolipy等也要手动安装,这些只要跟着报错提示走就行了。中间还遇到not found xxx\\METADATA的错误,如果xxx包不重要直接进链接把它删掉就好了。全部完成后运行程序,如果成功链接cuda的动态库就说明gpu运行成功:

 

你可能感兴趣的:(深度学习,keras,tensorflow,深度学习)